Di cosa si parla realmente nel dibattito sul controllo delle “fake-news” (le “balle”) diffuse in rete?

Qualche giorno fa notavo un bell’avviso in Wikipedia. La pagina riguardante i CIE (Centri di Identificazione e Espulsione) mostrava un banner in cui gli amministratori dell’enciclopedia mettevano in guardia che “La Neutralità di questa voce o sezione (…) è stata messa in dubbio.” Motivo: “Per quanto costellata di fonti, per altro non sempre autorevoli e neutre, l’esposizione assume toni polemici e tendenziosi, mischia fatti oggettivi (pochi) con numerose considerazioni personali.” La notizia è qui che alla voce CIE, le fonti che hanno sottoposto contributi sono in parte non autorevoli, e in generale discordanti tra di loro su punti non marginali. Quindi l’enciclopedia Wikipedia in questo caso avverte l’utente di non prenderla troppo sul serio.

Wikipedia si fonda su contributi volontari degli utenti. Chiunque può dire la sua su un argomento e arricchire la pagina. E’ una specie di autocertificazione della qualifica di esperto. Nei casi disputati, come in quello dei CIE, esiste poi una “struttura” di “alcune centinaia di amministratori con poteri speciali di imporre comportamenti corretti” (traduzione mia) e un “comitato arbitrale” che decide su dispute non risolvibili. Sia gli amministratori, sia il comitato e naturalmente anche i semplici utenti sono tutti esclusivamente volontari.

Wikipedia è una fondazione non-profit, i suoi margini operativi sono limitati rispetto al volume dei contributi alle sue pagine. Anche volesse, non potrebbe mai permettersi un corpo di “fact-checkers”, un comitato editoriale che vegli sull’intero sapere dell’umanità. Così il suo controllo di qualità è garantito volontariamente “dal basso”, dalla comunità degli utenti.

Il che ha un prezzo, come ammette la stessa Wikipedia, riportando uno studio effettuato sulla qualità delle pagine—o “articoli” che dir si voglia—votate di prima fascia (“featured”) dalla comunità. Citando infatti una ricerca accademica effettuata nel 2010, conclude che: “Il risultati della valutazione dimostrano una fondamentale discontinuità qualitativa tra gli articoli featured di Wikipedia”.

Ma nel caso di Google e Facebook—altri veicoli online di contenuti, la storia è un po’ diversa.

Google ad esempio assume regolarmente (per lo più a tempo determinato e con alta rotazione) un piccolo esercito di cosiddetti “quality raters”: dei collaboratori esterni, assunti da ditte subappaltanti, che in maniera capillare segnalano, uno alla volta, i siti pericolosi, diffamatori, fasulli, ingannevoli, non autorevoli, così che Google li possa rimuovere dai risultati delle ricerche. I “quality raters” segnalano, “flaggano” un sito, e Google si riserva di rimuovere o meno il sito segnalato.

Qui non c’è “autodeterminazione” degli utenti: questa è una decisione presa “dall’alto”, basata su valutazioni soggettive di centinaia di dipendenti sparsi in tutto il mondo e convalidata o meno da Google.

E qui veniamo alle polemiche italiane di questi giorni. Dapprima sull’argomento erano intervenuti in sequenza il Ministro della Giustizia Orlando—che aveva sollecitato l’esigenza di controlli sull’uso di Facebook, Twitter “come veicoli di propaganda d’odio”—e in seguito anche il Presidente Antitrust Pitruzzella, che invocava “una rete di organismi nazionali indipendenti capace di identificare e rimuovere le notizie false” (aggiungendo che “La post-verità è uno dei motori del populismo ed è una minaccia per le nostre democrazie”). Successivamente sono arrivati gli strali di Grillo, non solo contro Orlando e Pitruzzella, ma anche su Renzi, Gentiloni, Mattarella e Napolitano. Nella foga della polemica Grillo ha proposto tra il serio e la battuta l’istituzione di una “giuria popolare” di cittadini estratti a sorte che votino sulla “veridicità delle notizie pubblicate dai media”. A Grillo cioè non piace che i diffusori di contenuti (i media tradizionali) si auto-regolino “dall’alto”.

Ora, è chiaramente inimmaginabile pensare che Facebook e Twitter possano intervenire a livello capillare sulle bufale in rete. Riprendendo l’esempio di Google, l’idea che Facebook possa assumere un esercito di giornalisti chiamati ad esaminare non-stop i milioni di contenuti postati e condivisi dagli utenti è un’opera impossibile. Anzitutto perché le notizie che circolano su FB sono un numero ben maggiore del numero dei siti web controllati ogni giorno dai dipendenti di Google. Ma soprattutto perché il compito qui è più spinoso, e distinguere la balla dalla “verità” in una notizia è un giudizio complicato e molto spesso soggettivo.

Molto spesso, ma non in ogni caso.

L’esempio clamoroso è la “balla” diffusa sui social americani poco prima delle elezioni presidenziali USA, che collegava Hillary Clinton a una cospirazione criminale dedita allo sfruttamento di minori come schiavi sessuali, un racket coordinato da un pizzaiolo di Washington, DC amico della stessa Clinton. Nonostante sia il New York Times, l’Washington Post e altri di “fact-checkers” avessero prontamente segnalato la bufala, la notizia era diventata virale sui social e aveva impresso così intensamente un ventottenne padre di due figli, Edgar M. Welch, sedicente paladino dei “valori della famiglia”, al punto da indurlo a guidare per sei ore da Salisbury, North Carolina a Washington, per poi presentarsi nel locale della pizzeria “incriminata” con un fucile d’assalto AR-15, dove—per fortuna—si era limitato a sparare alcuni colpi in aria.

La notizia della Clinton coinvolta in un racket di sfruttamento del sesso minorile sembrerebbe talmente assurda da non essere degna della minima attenzione (se non parodica). Eppure un ventottenne di Salisbury, North Carolina, dal look cool e le braccia tatuate, padre di due figli, l’ha pensata in maniera del tutto opposta.

In USA il boom delle fake news ha raggiunto un picco nell’ultimo anno, non a caso in coincidenza delle elezioni presidenziali. E progressivamente sono aumentate le pressioni e gli inviti a Facebook e Twitter a escogitare forme di controllo. E’ così che  dal 15 dicembre scorso Facebook ha ufficialmente deciso di stipulare una partnership con alcuni gruppi esterni di fact-checking, inaugurando un primo sistema sperimentale di prevenzione delle notizie false. In questo primo approccio, la decisione finale è affidata agli esperti di fact-checking, ma la segnalazione delle potenziali bufale è demandata agli utenti, che ora trovano un bottone con cui flaggare le notizie come potenzialmente false. L’autorevolezza dei “controllori” è sancita dall’adesione a un protocollo di principi creato dall’organizzazione Poynter.org (tra i cui signatari è anche l’interessantissimo sito Italiano pagellapolitica.it.)

Il sistema come detto è sperimentale e necessariamente limitato. Ma il fatto di sperimentare in questo modo mi sembra assolutamente legittimo. E Facebook se ne sta assumendo la responsabilità di iniziativa propria—e su sollecitazione da parte della politica.

Tornando al dibattito in Italia, non so quanto Pitruzzella abbia presente tutti i termini della questione, ma a occhio e croce la sua proposta di “rete di organismi nazionali indipendenti capace di identificare e rimuovere le notizie false” sa di censorio—a pensarla male—o di generico—se assumiamo le sue  buone intenzioni. Per quanto riguarda il ministro Orlando, speriamo che la sua idea—come sembra—si limiti al tentativo da parte dell’Unione Europa di bloccare quelle sole notizie “funzionali alla propaganda d’odio”, e non sia invece esteso alle “bufale”, concetto invece più infido e fluttuante.

Beppe Grillo, nel post sull’istituzione delle giurie popolari, cita ad esempio della fallacia della stampa tradizionale due articoli de La Stampa e de Il Giornale (in questo caso il titolo, “Grillo vuole una banca”, sa già a naso di notizia falsa). In un futuro, quando il meccanismo di controllo messo in piedi da Facebook dovesse entrare a sistema, articoli come questi cadrebbero probabilmente nella rete delle segnalazioni degli utenti come articoli contenenti notizie false (quello della Stampa) o con un titolo altamente tendenzioso e non-dimostrabile (nel caso de Il Giornale). Che cosa avrebbe Grillo da temere da un controllo “dall’alto” come questo che Facebook sta sperimentando? Un “comitato di controllori” non è un demone, se formato in modo trasparente da individui o gruppi di chiara reputazione e autorevolezza.

Advertisements