Informazione e auto-radicalizzazione: dentro la Tana del Bianconiglio

350 canali

Stiamo assistendo alla crescita della tendenza all’auto-radicalizzazione, ovvero la polarizzazione estrema delle opinioni che non avviene per influenze esterne bensì per auto-induzione. Si tratta di un problema globale che investe tutti: qualunque schieramento politico, qualsiasi gruppo religioso. L’auto-radicalizzazione è una delle maggiori sfide del futuro perché a oggi rappresenta la scomparsa della possibilità per gli individui di ottenere una visione corretta della realtà.

di Matteo Flora

Definiamo radicalizzazione quel processo durante il quale le persone assumono delle posizioni estreme, in politica o nella religione ad esempio. Fin qui, niente di nuovo. Di radicalizzazione, in rete e in società, in fondo si parla già da tempo. Ma se la via alla radicalizzazione fosse più autonoma di quanto pensiamo?

Una ricerca pubblicata da Manoel Horta Ribeiro, Raphael Ottoni, Robert West, Virgílio A. F. Almeida,, Wagner Meira Jr. dal titolo "Auditing Radicalization Pathways on YouTube", ha preso in rassegna 72 milioni di commenti su Youtube presi da 330.000 video che andavano dai media generalisti fino all’estrema destra americana, passando dal sovranismo moderato e dai canali dei “cattivi maestri”, fino ai suprematisti bianchi insomma. Lo scopo era capire se usare YouTube polarizzi e radicalizzi gli utenti. E i risultati – inquietanti come non si sperava – sono arrivati: secondo i ricercatori sì, le piattaforme consigliano attivamente i contenuti più "estremisti", spostando progressivamente i commentatori dai canali più moderati verso quelli più estremisti.

Una scelta consapevole? Un tentativo concertato di spingere l’utenza verso il sovranismo? No, solo una parte di un fenomeno chiamato "auto-polarizzazione" o "auto-radicalizzazione".

L’auto-radicalizzazione funziona in modo strano e principalmente su due livelli. Il primo è il livello top-down e avviene quando una persona preseleziona un esiguo numero di media per approvvigionarsi di notizie. Le persone sono “algoritmi biologici” che processano le informazioni per costruirsi un proprio modello di realtà: potendo intervenire sulla fonte di approvvigionamento delle informazioni di una persona si riesce a cambiarne la percezione.

Con l’auto-radicalizzazione accade che se io mi approvvigiono principalmente su un certo tipo di stampa (faziosa da un lato o dall’altro) tenderò a escludere le notizie che riguardano un altro punto di vista, un altro tipo di stampa.

La conseguenza logica è che le mie posizioni si andranno a radicalizzare sempre di più. È ciò che accade certamente con tutta la stampa politica, ma anche all’interno di altri sistemi di approvvigionamento di informazioni, come Google e Facebook o siti internet. La tendenza collettiva è di cercare sempre gli stessi siti internet, le stesse pagine, le stesse persone, quelle che la pensano come noi. Non c’è alcun agente esterno che interviene per fornire altre informazioni. Così le informazioni, semplicemente, vengono filtrate e quelle divergenti dai miei preconcetti non arrivano.

Poi c’è il secondo livello di auto-radicalizzazione: il bottom-up che funziona direttamente con la persona che si informa autonomamente sulla rete. È quella che, affermano i ricercatori, ha pesantemente influenzato il “fenomeno Brevik”, ovvero il suprematismo bianco online che porta a episodi di violenza terroristica. Ed è un livello incredibile di auto-radicalizzazione perché ne siamo tutti un po’ responsabili, soprattutto noi informatici. Pensiamo ad esempio a tutte le volte che abbiamo detto “cercalo su Google” oppure “Google è tuo amico”.

Ma la verità è che informarsi su Google significa andare a infilarsi sempre di più nella tana del bianconiglio perché i contenuti che gli utenti cercano sono sempre di un certo tipo (esempio: non “vaccini”, ma “i vaccini fanno male” oppure “i vaccini causano l’autismo”). Questa azione genera due risultati: da un lato la radicalizzazione di quell’idea preconcetta, dall’altro che nel tempo ciascuno di noi troverà sempre più spesso informazioni che confermano le nostre tesi iniziali. La stessa cosa accade nell’esempio dello studio su Youtube: per ogni contenuto che andiamo a cercare, l’algoritmo ci proporrà nuovi contenuti ma sempre simili che confermeranno la nostra opinione, solo un po’ “migliori”, più “interessanti” e più “radicali”.

L’auto-radicalizzazione è un problema per tutti. È un problema per i jihadisti, per gli antifascisti e per i razzisti. Per i vegani, le femministe e le antifemministe. È un problema sia per i sovranisti che per chi chiede maggiore integrazione. E la causa del problema siamo principalmente noi: è il meccanismo che usiamo per avere informazioni che ci sta sempre più radicalizzando, che ci sta spingendo sempre di più nella “Tana del Bianconiglio”. Sempre più in profondità.

Non ci sono soluzioni facili. Si parla di anti-radicalization patterns, ovvero di percorsi di de-radicalizzazione, che rappresentano forse la sfida più grande all’orizzonte. Perché in una società che si è polarizzata alle estreme conseguenze ciò che abbiamo ottenuto e che è sempre più facile polarizzarsi ed è sempre più difficile ottenere una visione corretta della realtà. Così facendo ciò che otterremo sarà solo l’incessante ripetersi dei nostri schemi mentali.

(4 dicembre 2020)




MicroMega rimane a disposizione dei titolari di copyright che non fosse riuscita a raggiungere.