Google sta studiando e testando un nuovo algoritmo per il proprio motore di ricerca in grado di premiare o penalizzare l'indicizzazione delle fonti di informazione presenti sul Web. È quello che in Italia è stato ribattezzato "l'algoritmo anti-bufala di Google".

In tanti hanno salutato questa futura novità come un importante passo avanti verso l'accesso alla corretta informazione da parte di tutti. D'altronde la Rete è piena di siti contenenti informazione-spazzatura molto visitati e, in base agli attuali algoritmi utilizzati da Google (che è il motore di ricerca più utilizzato), con un ranking (una posizione nei risultati della ricerca) molto elevato. Le cose potrebbero dunque cambiare presto, con il colosso di Mountain View pronto a dare maggior risalto alle informazioni di qualità.

matrix codice

Quasi un sogno: addio ai siti degli anti-vaccinisti nelle prime posizioni, addio a quelli che spiegano come curare i tumori con il bicarbonato, a mai più rivederci a chi cura i difetti alla vista guardando direttamente il sole. E, forse, la novità è veramente positiva: più informazione di qualità significa anche cittadini più consapevoli e maggiormente in grado di prendere decisioni corrette dal punto di vista razionale.

Eppure l'idea di Google porta con sé dei notevoli problemi, per ora esclusivamente potenziali, ma dei quali occorre essere coscienti fin da subito, sia per quanto riguarda la libera circolazione delle informazioni, sia per quanto riguarda l'utilizzo delle stesse da parte nostra.

Delegando il giudizio sull'affidabilità di un'informazione a un soggetto come Google, padrone assoluto in termini di mercato (anche perché ad oggi è il più efficiente) di un servizio fondamentale come la ricerca nel web - al quale, peraltro, affidiamo in cambio pezzi della nostra privacy – rischiamo di consegnargli il potere supremo di scegliere per noi cosa e quali siano le informazioni affidabili.

Rischiamo dunque di consegnare a un quasi-monopolista il potere di espellere di fatto (o integrare) dal nostro campo visivo, marchiandole come inaffidabili, informazioni che – in barba al motto don't be evilpotrebbero, seppur vere (o false), essere considerate scomode (o vantaggiose) per lo stesso colosso o per una fonte di potere ad esso esterna ma verso la quale Google agisce in maniera subordinata.

Il controllo delle fonti, anziché essere diffuso e a sua volta controllabile, come avviene ad esempio nel giornalismo, rischia di accentrarsi ancora di più e con il nostro beneplacito, perché, d'altro canto, come facciamo ad opporci a un servizio che teoricamente garantisce l'accesso a informazioni di maggiore qualità?

Se le antenne degli anti-complottisti si sono già drizzate, sarà bene non dimenticare - senza scomodare l'Nsa-gate - che Google in passato ha già agito in senso anti-libertario in Cina, cedendo alle pressioni del governo per togliere l'avviso sulla censura, mettendo così a rischio l'incolumità e la libertà delle persone.

Va considerato poi un altro potenziale fattore negativo: sapere che qualcuno lavora per noi nel selezionare le informazioni attendibili tra le migliaia disponibili potrebbe portare a una dis-educazione progressiva nell'approccio critico alle stesse (materia in cui già ora non siamo grandi campioni): se sappiamo che la correttezza delle informazioni è già stata verificata, è probabile che tenderemo sempre più a fidarci di esse quasi ciecamente, limitando al minimo, se non del tutto, di controllarne l'accuratezza. E se anche rimanesse in noi un briciolo di scetticismo, la nostra attività di controllo diverrebbe più difficile poiché le informazioni che cerchiamo, considerate inattendibili da chi ce le dovrebbe offrire, potrebbero essere rese più ardue da raggiungere.

Ci sono infine problemi di carattere più tecnico: l'algoritmo in via di sviluppo fa una previsione probabilistica che, per quanto sofisticata e il più possibile accurata, rimane tale. Significa che la nostra possibilità di accesso alle fonti di informazione dipenderà da un calcolo probabilistico della loro attendibilità, effettuato verificando la corrispondenza di una tripletta semantica (soggetto-verbo-complemento) con un gigantesco archivio di informazioni ritenute corrette e verificate.

Ad esempio, l'affermazione "Barack Obama è nato in Kenya" risulterà falsa (lo è) e il sito internet che la contiene verrà penalizzato nel ranking di Google perché non corrisponde alla tripletta corretta "Barack Obama è nato negli Usa". Poniamo ora che l'affermazione falsa venga utilizzata di proposito non in un forum del Tea Party, ma da un sito internet di satira (The Onion, ad esempio): è accettabile che quest'ultimo venga penalizzato nelle nostre ricerche e che dunque sia più difficile per noi da raggiungere?

Ma se questo è un problema risolvibile man mano che gli algoritmi saranno in grado di capire sempre più il senso delle parole, proviamo a portare alle estreme conseguenze la situazione. Sappiamo che, ad oggi, i terremoti non si possono prevedere con precisione. Supponiamo che domani la situazione cambi e che dei terremoti potremo conoscere con precisione l'ora e il punto preciso in cui si verificheranno. Tutti i siti che contengono la frase "oggi i terremoti non si possono prevedere con precisione" conterranno un'affermazione vera oggi (e dunque affidabile) ma falsa domani (e dunque inaffidabile).

Il problema vero però potrebbe verificarsi nella situazione opposta: tutti i siti che oggi contengono un'informazione inaffidabile – perché la tripletta "oggi i terremoti si possono prevedere" è falsa –, domani potrebbero essere considerati affidabili (o, quantomeno, potrebbero guadagnare 'punti fiducia') dal motore di ricerca e posizionarsi in alto nel ranking, questa volta con il bollino implicito di trustworthiness assegnato da Google, anche se la loro affermazione è basata su presupposti errati e dunque su informazioni intrinsecamente di scarsa qualità.

È, ovviamente, una banalizzazione, e tutto potrebbe risolversi affinando ulteriormente l'algoritmo, ma il problema "anti-bufala", soprattutto per quanto riguarda l'accesso alle informazioni 'scientifiche', è di portata potenzialmente elevata: la conoscenza scientifica oggi è sempre meno deterministica (nel senso che non accetta più di essere inquadrata nelle categorie vero/falso) e sempre più probabilistica, lasciando margini più o meno ampi all'incertezza e alla controversia. Ed è su un tale tipo di informazioni che prenderemo sempre più spesso le nostre decisioni, attribuendo loro gradi diversi di trustworthiness a seconda dei contesti. Significa che molte affermazioni scientifiche non saranno (e non lo sono già oggi) inquadrabili come vere o false a meno che non forziamo razionalmente tali valori a seconda che le probabilità pendano più da una parte o dall'altra.

Ma un conto è se tale operazione la facciamo noi, avendo prima un libero e semplificato accesso a tale tipo di informazioni e agendo poi razionalmente come singoli o come collettività nello spazio decisionale riservatoci dai margini di incertezza; altro conto è se l'accesso alle informazioni, e in subordine la libertà decisionale, viene lasciato nelle mani di un unico soggetto.