Nell’intervista che Massimo Russo fa a Ben Gomes, vice presidente di Google, troviamo spiegato bene come dietro l’affinamento dell’algoritmo ci sia un test permanente con valutatori umani, che rappresenta l’essenza del progetto Owl teso – tra le altre cose – a rendere meno visibili notizie bufala, messaggi d’odio e in generale informazioni false o offensive ma anche leggende metropolitane o teorie cospirazioniste.
Si tratta di diecimila valutatori indipendenti a livello globale che indirizzano lo sviluppo dell’algoritmo di Google per garantirne l’accuratezza e l’attendibilità delle fonti a partire da un manuale di linee guida per la qualità nella ricerca che è pubblico. La recente attenzione per il tema delle “fake news” è stata quindi trattata come tema di credibilità delle fonti informative che, per essere affrontata, ha portato ad un cambiamento del manuale. Come dire: il problema dell’algoritmo di Google dipende dalla percezione di accuratezza e rilevanza dei valutatori umani che rispondono ai test:
Negli ultimi sei mesi abbiamo riscontrato che per una certa classe di domande riguardo le notizie, l’incitamento all’odio e così via, i nostri segnali per indicare l’autorevolezza non erano sufficienti, e i nostri valutatori non stavano affrontando la questione con l’enfasi dovuta.
Non affrontare “la questione con l’enfasi dovuta” significa rimandare il problema alla percezione e alla sensibilità umana nell’informazione. Posso non segnalare una pagina su una leggenda metropolitana perché so benissimo che non esistono alligatori nelle fogne di New York e chi cercherà quel tipo di contenuto lo farà con modalità di intrattenimento e non per costituire una squadra armata che si aggiri per le fogne per eliminare la minaccia. Il rapporto tra esposizione alla news ed effetti relativi non è per me certo, non c’è un rapporto causa-effetto univoco né possiamo ricadere nelle spiegazioni semplicistiche del tipo teoria del “proiettile magico”. E così pure mi chiedo: ma è corretto rendere meno visibili le teorie cospirazioniste o dobbiamo riconoscerne una funzione nel sistema della scienza, cioè nella ricerca della verità? In fondo obbligano il sistema della conoscenza a confrontarsi con il tema del dubbio e dell’incertezza ed il loro emergere mette in luce la crescita della sfiducia nelle istituzioni scientifiche ma non nel metodo scientifico: sono infatti pur sempre alla ricerca della verità. O, piuttosto, dobbiamo pensare che le teorie del complotto siano un problema perché funzionali all’estrema destra e al campismo? E se sono un valutatore sensibile all’alt-right come questa mia qualità scivolerà nell’algoritmo?
È evidente che i test di Google sono un continuo enorme sistema di feedback che viene preso in considerazione dal team che si occupa dell’algoritmo per raccogliere segnali emergenti. Ma raccogliere i segnali giusti per rispondere al tema pubblico delle “fake news” ha comportato produrre stimoli adeguati attraverso un mutamento del manuale di linee guida che fornisse esempi più adeguati ai tempi di cosa fosse una pagina di scarsa qualità. Come spiega Ben Gomes nella presentazione del “Our latest quality improvements for Search“:
Last month, we updated our Search Quality Rater Guidelines to provide more detailed examples of low-quality webpages for raters to appropriately flag, which can include misleading information, unexpected offensive results, hoaxes and unsupported conspiracy theories. These guidelines will begin to help our algorithms in demoting such low-quality content and help us to make additional improvements over time.
L’attenzione per l’accuratezza rispetto a ciò che deve essere valutato come falso, inopportuno o discorso d’odio è passata quindi dalla necessità di fare formazione a chi deve valutare. Come dire: non c’è immediatezza di giudizio, serve accordarsi, essere preparati a riconoscere le modalità con cui le pagine web lavorano. Serve educazione, insomma.
L’algoritmo è uno strumento di adeguatezza e non di verità. Adeguatezza delle informazioni al tempo presente, che deve tenere conte dell’umanità con cui si confronta, con il principio di realtà che a questa umanità appartiene e con i limiti che abbiamo, come esseri umani, a valutare l’adeguatezza del sapere.
La scelta de nome del progetto di Google rimanda a quella Civetta di Minerva che, da Omero in poi, è simbolo della ricerca della conoscenza. È interessante che sia un simbolo utilizzato anche dagli Illuminati e dalla Massoneria, in quel cortocircuito che la ricerca di una diversità nella verità produce.