scacciavillani

Ce la raccontiamo e ce la suoniamo da soli. E così fanno gli altri. E tutti facciamo forse anche di peggio: chiudiamo le porte - o le orecchie, o gli occhi - davanti a chi ci porta un messaggio che non riconosciamo come nostro, che non è prono alle nostre strutture di pensiero, ai nostri ideali e, in definitiva, a ciò che già crediamo.

Nell’era della grande comunicazione di massa, quella dei social network che galleggiano nel World Wide Web, dove gli intermediari hanno scelto più di essere attori muti che di scomparire davvero, una ricerca italo-americana recentemente pubblicata sulla rivista Pnas conferma - big data alla mano - un sospetto che forse coltivavamo da tempo: nel Web viviamo in tante piccole bolle comunicative che spesso ci creiamo in maniera autonoma. Bolle - o “camere dell’eco" - nelle quali riconosciamo la nostra dimensione sociale, una comunità di pensiero tra simili, e dove - a dispetto di un numero spropositato di informazioni senza controllo - rafforziamo reciprocamente le nostre posizioni in ciò che già crediamo, rimbalzandoci informazioni che non fanno altro che coccolare i nostri pregiudizi e rinforzare i nostri punti di vista.

Secondo i ricercatori che hanno analizzato il comportamento degli utenti su Facebook, la maggior parte di questi “tendono a selezionare e condividere contenuti a seconda di specifiche narrative e ignorare il resto”. “Il fattore determinante per la formazione di una ‘camera dell’eco’ - dicono i ricercatori - è il bias di conferma”, ovvero quel processo mentale - a cui tutti siamo soggetti - che ci porta a selezionare come rilevanti (e condividere con gli altri) solo le informazioni che confermano le nostre convinzioni e ipotesi, attribuendo a tutto il resto un grado di credibilità minima.

Su Facebook tendiamo a rispecchiare la nostra chiusura mentale e questo risulta essere un problema di non poco conto, soprattutto se si considera che Facebook è oggi uno dei maggiori canali in cui ognuno di noi può autonomamente avere accesso alle informazioni. Infatti gli stessi ricercatori mostrano come le (dis)informazioni ‘complottiste’ tendano ad essere assimilate in maniera più lenta nelle bolle composte da persone prone a credere a questo genere di notizie, ma la loro diffusione - a differenza delle notizie di scienza nelle bolle di appassionati - tende a crescere maggiormente con il passare del tempo. La (dis)informazione complottista tende cioè a durare più a lungo e a propagarsi maggiormente rispetto all’informazione scientifica che una volta raggiunto rapidamente il suo picco tende a scemare in fretta. È una cosa nota, già evidenziata con la resistenza nel tempo, ad esempio, delle ‘bufale’ sul rapporto tra vaccini e autismo o sull’inesistenza del global warming o, ancora, l’efficacia dell’omeopatia o il complotto sull’11 settembre 2001 (ma l’elenco potrebbe essere molto più lungo) di cui oggi abbiamo la prova quantitativa. Ed è, dicevamo, un grosso problema, tanto che il World Economic Forum ha identificato la disinformazione digitale di massa come uno dei maggiori rischi per la società odierna.

Il fatto che i ricercatori abbiano, con la forza dei numeri, dato un corpo ai sospetti sulle realtà sociali che sviluppiamo nel mondo virtuale ci permette di vedere anche un’altra serie di problemi che discendono a cascata.

Due modi opposti di vedere e leggere la realtà che ci circonda - quello ‘complottista’ e quello più attento alla corretta informazione scientifica - seguono meccanismi di base identici nella selezione e nella condivisione delle informazioni ritenute rilevanti. Questo ci dice che, in realtà, non siamo così diversi e che molto di ciò che ci differenzia dipende dal nostro passato e dall’ambiente culturale in cui siamo cresciuti e in cui abbiamo formato le nostre idee. Il primo problema da risolvere (e vale per tutti) è dunque quello di aprire dei varchi nelle nostre bolle, tramite un processo volontario che contrasti metodicamente la tendenza intrinseca ad affidarsi al confirmation bias. Che non significa non selezionare più le informazioni, ma avere cura di non abbandonarsi alla pigrizia in tale processo di selezione.

La formazione di queste ‘bolle’ o ‘camere dell’eco’ comporta inoltre due fenomeni negativi e distorsivi: il primo è quello che tende - al di là del fenomeno dei ‘troll’, disturbatori un tanto al chilo per passione o professione - a ridurre i punti di frizione tra le bolle, dai quali invece potrebbero nascere discussioni positive sia per capire il punto di vista altrui che per far scattare la sacra scintilla del dubbio, anche se in un numero ridotto di persone. Non è questione di convincere i convinti (l’inefficacia dei siti anti-bufala d’altronde è ormai chiara), ma di far entrare in conflitto e far circolare le idee e le informazioni. Chi vi scrive parla per esperienza: per lunghi anni ho creduto alle teorie del complotto sull’attentato alle Torri Gemelle o alle proprietà salvifiche dell’agricoltura biologica (e anche altre cose), ed è stata proprio la frizione con posizioni nettamente contrastanti - con una bolla diversa dalla mia - ad avermi fatto cambiare treno, binari e direzione.

Anche perché, e veniamo all’altro fenomeno distorsivo, vivere all’interno di bolle di informazione che proteggono i nostri pregiudizi, alla lunga rischia di far venire meno l’abitudine a porre in dubbio la verità di quelle informazioni e ancora più propensi ad accettare solo quello che vogliamo, a prescindere dalla sua correttezza. Questo può succedere, e succede, anche all’interno della bolla più attenta alla corretta informazione scientifica, che riteniamo più propensa, per la natura intrinseca del pensiero scientifico, ad esercitare un senso critico maggiore. E così la scienza rischia di diventare una verità rivelata da portare come buona novella ai miscredenti, anziché un processo complesso con punti d’arrivo sempre instabili e sempre in discussione.

E il rischio raddoppia se pensiamo che fuori da Facebook e dentro un altro grande mediatore come Google, entriamo in un’altra bolla, quello di una ricerca che ci restituisce risposte basate sulle nostre preferenze precedenti e più vicina al nostro modo di vedere le cose facendoci rientrare ancora una volta nel confirmation bias. Il rischio si fa poi più spinto quando Google progetta - con un intento positivo - di attribuire una sorta di bollino di qualità alle informazioni, aumentando il ranking di quelle ritenute attendibili e abbassando quello delle altre. Il fatto che sia un mediatore così grande e praticamente incontrastato a selezionare per noi ciò che è attendibile o meno rischia di abbassare ancora una volta la soglia del pensiero critico di noi utenti online e potenzialmente produce un altro fenomeno distorsivo sulla libera circolazione delle informazioni e quindi sulla nostra possibilità di vedere al di là della nostra bolla.

Il confronto e il conflitto tra posizioni rimane un processo fondamentale per una società civile, purché condotto, diversamente da come accade ora nella maggior parte dei casi, con educazione e umiltà. Serve uno sforzo collettivo in tal senso e probabilmente qualche correttivo tecnico da parte dei grandi mediatori per far sì che le bolle non diventino compartimenti stagni sempre più piccoli e sempre più chiusi. Quella di aprire qualche finestra per vedere cosa accade là fuori è una strada sicuramente tortuosa, piena di insidie, ma quella di ignorare l’esistenza di chi la pensa diversamente, nascondendola sotto il tappeto o limitandosi, al massimo, al dileggio, è inutile e deleteria.