L’algoritmo dell’amicizia e la nuova democrazia
Scienza e razionalità
Mark Zuckerberg, Mr Facebook, è ormai da mesi impegnato in un tour americano di preparazione elettorale. Ha già anche arruolato i primi componenti dello staff. L’interpretazione più ovvia è che si stia predisponendo al grande passo, la candidatura alle presidenziali statunitensi con il non-partito della community globale - la constituency della democrazia algoritmica in cui lo stesso Zuckerberg testimonia di confidare.
Gli algoritmi però non sono neutrali, perché sono elaborati, sviluppati, aggiornati da umani. Raccolgono informazioni personali, profili socio-economici, parametri psicometrici per elaborarli secondo criteri selezionati, modellati, definiti da matematici e scienziati dei big data sulla base degli obiettivi individuati dal committente. Gli algoritmi aggregano i dati che gli umani dicono loro di considerare, li correlano, traggono risposte che determinano quello che vedremo o non vedremo mai nelle nostre timeline, quello che gli altri vedranno di noi nelle loro, quello che i clienti di Facebook o Google comprano di noi. I clienti possono essere bed & breakfast o assicurazioni, banche o governi, agenzie di risorse umane o brand della moda. Zuckerberg ha conoscenza delle relative implicazioni.
Facebook seleziona le fonti (gli amici) e i contenuti (i post) della nostra timeline, cucendoli addosso al profilo (matematico) che l’algoritmo si è costruito di noi in base ai nostri comportamenti: i like che mettiamo, gli aggettivi e le faccine che usiamo, le foto che postiamo. Se siamo depressi, se siamo di destra, cosa mangiamo, se la sera usciamo o cosa guardiamo in tv siamo a noi a dirlo e l’algoritmo a interpretarlo. Questo restituisce l’utente alla sua bolla socio-politico-editoriale, dove potrà specchiarsi, introflettersi, complimentarsi della propria omogeneità. Tanto non vedrà mai il resto.
Facebook discerne contenuti e target - esattamente come fa un editore - però non fa l’editore: siamo noi, con le nostre (re)azioni, che diciamo all’algoritmo quali contenuti selezionare e quali scartare. Siamo noi insomma ad editare il nostro universo di contenuto.
Così lo stesso Zuckerberg spiega la differenza tra un editore e un algoritmo editoriale (colossale, semi-monopolista e globale) come Facebook:
“People share and read a lot of news on Facebook, so we feel a great responsibility to handle that as well as we can. But remember that Facebook is mostly about helping people stay connected with friends and family. News and media are not the primary things people do on Facebook, so I find it odd when people insist we call ourselves a news or media company in order to acknowledge its importance. (…) We are a technology company because the main thing we do across many products is engineer and build technology to enable all these things”.
Zuckerberg quindi non ritiene che una nota, un post o un intero palinsesto editoriale di una pagina pubblica su Facebook (di un personaggio, un’organizzazione, un partito politico, un gruppo satirico) siano “media”. L’esperienza quotidiana tuttavia testimonia altro. Gli utenti non vanno sul sito del “Gazzettino della Fava”, vanno su Facebook e lì vedranno cosa hanno postato gli amici e cliccheranno sui loro link. La fonte è l’amico, non la testata di cui è stato condiviso il link, ma quell’amico e quel link noi li vediamo perché l’algoritmo del non-editore Facebook ha calcolato che fosse giusto così.
I Big Data sono la codificazione matematica della nostra vita, dei nostri spostamenti, della nostra personalità, delle nostre convinzioni, consuetudini, frequentazioni - o quanto meno, l’idea che si fa di noi l’ecosistema “algoritmico” che assemblea, codifica, giudica le nostre tracce digitali.
Possiamo intercettare grazie a WhatsApp i flussi dei migranti che si muovono dalla Siria alla Turchia e da lì (clandestinamente) in Europa. Intercettiamo il traffico stradale e adeguiamo su quello il nostro tragitto, e mentre ci spostiamo mandiamo dati contribuendo alla intercettazione complessivo dei flussi viabilistici. Monitoriamo la diffusione della patologia durante la stagione influenzale e i bisogni abitativi in una grande città, solo analizzando Big Data, cioè dati che noi stessi utenti rilasciamo mentre svolgiamo le consuete attività digitali pubbliche.
Le compagnie telefoniche registrano in tempo reale le attività dei nostri dispositivi mobili - le celle cui ci agganciamo, le attività che con il nostro smartphone svolgiamo, gli utenti con cui comunichiamo, i siti che frequentiamo. Ma non ce li rubano, quei dati: glieli diamo noi.
Se do un indirizzo al navigatore, voglio che la mia posizione sia localizzata alla perfezione e voglio che il navigatore sappia se sono in bici, a piedi, in auto o coi mezzi. Quindi voglio dare i miei dati (big data) per quel preciso scopo lì - arrivare a destinazione attraverso il percorso migliore. Accetto di darli a Google, consapevole che poi a qualcuno Google li venderà, ma totalmente inconsapevole di quanto pervasivi siano quei dati, di quanto arbitraria la loro interpretazione, di quanto potenzialmente nociva la loro diffusione.
Di questi dati noi utenti non abbiamo controllo. Non ne governiamo l’uso né abbiamo possibilità di ponderare il danno che ne potremmo ricavare, sinché il danno non è ormai stato fatto.
L’informativa che siamo obbligati a sottoscrivere per potere avere una connessione in wifi gratuito, ad esempio, dovrebbe aiutarci a capire quali dati verranno usati, da chi e con quale scopo. Ma nessuno legge le informative e nessuno scrive le informative perché, anche se lette, possano essere capite. Per connetterci ad un wifi “gratuito” accetteremmo ignari anche di cedere la patria potestà dei nostri figli. Questione di regolamentazione efficace e aggiornata? Forse. Ma non è servito certo l’obbligo di autorizzare i cookie per impedire il tracciamento non voluto della navigazione. Né - pur con tutte le precauzioni - si può immaginare di usare app e social o navigare online riuscendo a non essere tracciati.
I cartelloni pubblicitari digitali davanti ai quali camminiamo o ci fermiamo coi nostri trolley in stazione, in metro, all’aeroporto censiscono il nostro comportamento lì nei paraggi: se guardiamo la pubblicità, se controlliamo la mail, chattiamo su WhatsApp, facciamo un post su Facebook, se quel post ha una faccina sorridente o arrabbiata. Quell’innocuo cartellone pubblicitario sta discretamente raccogliendo un sacco di informazioni personali, sensibili, su di noi per venderle in tempo reale ad un cliente che chissà cosa ne farà. Data mining di questa stessa natura viene fatto anche da musei, locali pubblici e luoghi di consumo culturale. Noi non sappiamo di essere intercettati né da chi né per cosa. E non sappiamo nemmeno in che modo quei dati potranno un giorno essere usati contro di noi. Intanto però qualcuno li usa.
Facebook ha a disposizione un generatore automatico di dati personali alimentato da oltre 2 miliardi di utenti attivi nel mondo (300 milioni in Europa). 1 miliardo e 300 milioni sono gli utenti di WhatsApp, e anche i dati di quegli utenti sono di Facebook. Zuckerberg ci conosce meglio di noi stessi: è già in grado di predire quello che faremo, ci ha già divisi in cluster, sa esattamente quale contenuto vogliamo vedere, come e quando.
Zuckerberg è animato dai migliori sentimenti, naturalmente, vuole che la comunità globale sia friendly. La democrazia algoritmica, tuttavia, oltre che allucinante, è noiosa. I Big Data possono intercettare le “anomalie” ma l’umano che governa l’algoritmo le scarterà. La democrazia algoritmica non può occuparsi delle marginalità, degli scostamenti dalla formula astratta. La democrazia invece deve. La politica ne ha necessità.
Il primo passo è inquadrare l’ordine prioritario della questione - che è storicamente e tecnologicamente inedita - la sua pervasività, la sua non staticità, e preoccuparsi di garantire ai cittadini digitali un diritto non formale a governare l’estrazione, catalogazione, profilazione dei propri comportamenti online.
Non è una crociata contro la tecnologia. Va rimossa la tentazione di trovare risposte generiche, parziali, punitive quindi sbagliate. Va preso atto però che la questione, nelle sue implicazioni, è al momento dominio esclusivo delle élite tecnologicamente più avanzate - gli smanettoni, i cultori della materia, i policymaker da sempre sul pezzo.
Ecco, deve diventare dominio inclusivo, alla portata di tutti. Perché ciascuna possa in definitiva avere consapevolezza delle implicazioni delle proprie azioni digitali, possa individuare le proprie tracce e, se lo ritiene, prevenirne la diffusione.