Quando a dicembre abbiamo assistito al lancio di Threads – il Twitter di Meta – in Europa (The Verge, 2023) molte persone hanno avuto la loro prima esperienza di un social di microblogging con timeline (principalmente) algoritmica. Durante i primi giorni di vita della piattaforma sono comparsi sempre più post che iniziavano con “Caro algoritmo...” o “Ok algoritmo...” e proseguivano dando indicazioni su quali tipologie di persone gli utenti speravano di trovare nella loro rete. Questo riferimento diretto all’algoritmo di piattaforma testimonia una notevole algorithmic awareness (Hamilton et al 2014), frutto di una ormai pervasiva presenza di algoritmi di raccomandazione in tutte le media sharing platform. In una società sempre più datificata (van Dijck, Poell, de Waal 2019) la consapevolezza algoritmica assume sempre più importanza in quanto diventa essenziale che le persone siano al corrente degli algoritmi che operano nella curatela dei contenuti che vengono mostrati nelle piattaforme da loro utilizzate, non solo quando si tratta di vedere post di amici e conoscenti, ma soprattutto quando si tratta di informazione. Nei media mainstream si parla sempre più spesso di algoritmi, complice anche il successo di TikTok, piattaforma di contenuti distribuiti quasi esclusivamente secondo un flusso algoritmico, ma il loro funzionamento rimane, spesso, percepito come una black box. Per uscire da questo mito le persone costruiscono immaginari algoritmici (Bucher, 2017) e conseguenti folk theories (DeVito, Gergle, Birnholtz 2017) che orientano i loro comportamenti online. Dall’analisi tematica (Braun, Clark 2006) di 30 interviste in profondità portate avanti con persone tra i 18 e i 35 anni, inserite all’interno di un progetto più ampio sugli usi e le percezioni di TikTok, emerge con forza il tema della percezione e consapevolezza algoritmica, declinabile nelle dimensioni di collaborazione, resistenza e affidamento. Nel primo caso gli utenti si mostrano consapevoli delle dinamiche algoritmiche in atto nella piattaforma e parlano delle azioni che compiono per aiutare il “loro” algoritmo a capire meglio che genere di contenuti mostrare. Nel secondo, tenendo sempre in mente la presenza di questo attore, condividono i gesti che fanno per riorientare i contenuti che si trovano in piattaforma nei casi in cui la loro identità algoritmica non rispecchi la loro identità percepita (Karizat et al 2021), in alcuni casi arrivando a chiudere o cancellare l’app. Nell’ultimo caso si inseriscono gli utenti che hanno una consapevolezza dell’algoritmo di piattaforma ma scelgono di non interagirci per riorientare i contenuti, piuttosto lasciano che la piattaforma faccia da sé e costruendo il loro gusto in base alle proposte della app. Per quanto l’esperienza in TikTok non sia generalizzabile a tutte le piattaforme di media sharing è un buon esempio del livello di algorithmic awareness che hanno gli utenti di queste piattaforme – soprattutto quelli appartenenti a una fascia d’età giovane, come suggerito anche da Gran, Booth e Bucher nel loro studio del 2021 sulla consapevolezza algoritmica come possibile digital divide.
“Caro algoritmo...” Consapevolezza algoritmica nelle media sharing platforms / Firth, Ellenrose. - (2024). ( VI Convegno della Società Scientifica Italiana di Sociologia, Cultura, Comunicazione Rome; Italy ).
“Caro algoritmo...” Consapevolezza algoritmica nelle media sharing platforms
Ellenrose Firth
2024
Abstract
Quando a dicembre abbiamo assistito al lancio di Threads – il Twitter di Meta – in Europa (The Verge, 2023) molte persone hanno avuto la loro prima esperienza di un social di microblogging con timeline (principalmente) algoritmica. Durante i primi giorni di vita della piattaforma sono comparsi sempre più post che iniziavano con “Caro algoritmo...” o “Ok algoritmo...” e proseguivano dando indicazioni su quali tipologie di persone gli utenti speravano di trovare nella loro rete. Questo riferimento diretto all’algoritmo di piattaforma testimonia una notevole algorithmic awareness (Hamilton et al 2014), frutto di una ormai pervasiva presenza di algoritmi di raccomandazione in tutte le media sharing platform. In una società sempre più datificata (van Dijck, Poell, de Waal 2019) la consapevolezza algoritmica assume sempre più importanza in quanto diventa essenziale che le persone siano al corrente degli algoritmi che operano nella curatela dei contenuti che vengono mostrati nelle piattaforme da loro utilizzate, non solo quando si tratta di vedere post di amici e conoscenti, ma soprattutto quando si tratta di informazione. Nei media mainstream si parla sempre più spesso di algoritmi, complice anche il successo di TikTok, piattaforma di contenuti distribuiti quasi esclusivamente secondo un flusso algoritmico, ma il loro funzionamento rimane, spesso, percepito come una black box. Per uscire da questo mito le persone costruiscono immaginari algoritmici (Bucher, 2017) e conseguenti folk theories (DeVito, Gergle, Birnholtz 2017) che orientano i loro comportamenti online. Dall’analisi tematica (Braun, Clark 2006) di 30 interviste in profondità portate avanti con persone tra i 18 e i 35 anni, inserite all’interno di un progetto più ampio sugli usi e le percezioni di TikTok, emerge con forza il tema della percezione e consapevolezza algoritmica, declinabile nelle dimensioni di collaborazione, resistenza e affidamento. Nel primo caso gli utenti si mostrano consapevoli delle dinamiche algoritmiche in atto nella piattaforma e parlano delle azioni che compiono per aiutare il “loro” algoritmo a capire meglio che genere di contenuti mostrare. Nel secondo, tenendo sempre in mente la presenza di questo attore, condividono i gesti che fanno per riorientare i contenuti che si trovano in piattaforma nei casi in cui la loro identità algoritmica non rispecchi la loro identità percepita (Karizat et al 2021), in alcuni casi arrivando a chiudere o cancellare l’app. Nell’ultimo caso si inseriscono gli utenti che hanno una consapevolezza dell’algoritmo di piattaforma ma scelgono di non interagirci per riorientare i contenuti, piuttosto lasciano che la piattaforma faccia da sé e costruendo il loro gusto in base alle proposte della app. Per quanto l’esperienza in TikTok non sia generalizzabile a tutte le piattaforme di media sharing è un buon esempio del livello di algorithmic awareness che hanno gli utenti di queste piattaforme – soprattutto quelli appartenenti a una fascia d’età giovane, come suggerito anche da Gran, Booth e Bucher nel loro studio del 2021 sulla consapevolezza algoritmica come possibile digital divide.I documenti in IRIS sono protetti da copyright e tutti i diritti sono riservati, salvo diversa indicazione.


