Wikipedia. La libera enciclopedia del web tra le più cliccate al mondo per ogni tipo di ricerca. Talmente libera che chiunque può modificarne o aggiornare una voce, in qualsiasi momento, anche in forma anonima (benché l’utente lasci sempre come traccia dell'avvenuta modifica risulta il proprio IP, capace di identificare ogni computer collegato a una determinata rete).
In un mondo digitale in cui imperversano le fake news, ancora di più in un portale libero come questo, il rischio bufale è dietro l’angolo: c’è qualcuno che controlla l’attendibilità della fonte?
Ecco che un gruppo di attivisti ha iniziato a interessarsene, individuando un sistema in grado di riconoscere chi sia il diretto responsabile delle modifiche dei profili disponibili su Wikipedia. Quelli dei rappresentanti delle nostre Istituzioni.
Chatbots e political bots sono i sistemi più utilizzati per diffondere bufale online, sviluppati con tecniche dell'intelligenza artificiale e capaci addirittura di fingersi giornalisti, scrittori o politici stessi. Programmi informatici in grado di comporre e tradurre articoli propendenti per determinati schieramenti politici con il fine ultimo di influenzare l'opinione pubblica: si parla di social bots, spesso alla base delle fake news che su internet. Quelle che raccontano sono storie verosimili ma per niente reali, dai titoli clamorosi ma dal contenuto effimero, superficiale e spesso anche sgrammaticati. A volte, però, si nascondono così bene che è molto difficile riconoscerle.
Di contro poi ci sono i bots, tenuti a scoprire proprio da dove nascono le notizie false. I bots di Wikipedia, in questo caso, ne sono un perfetto esempio.
Risale al 2013 una delle modifiche più eclatanti, quella di “Edward Snowden”. Un utente anonimo editò la voce del whistleblower della Nsa da ‘dissidente’ a ‘traditore’. Venne poi dimostrato che le modifiche partivano dai computer del Senato e del Congresso. Lì, biografie di onorevoli, proposte di legge e rapporti parlamentari venivano costantemente “rivisitati” a piacimento. Nel 2014, invece, dal Senato Usa qualcuno modificò le conclusioni del Comitato Senatoriale sulle Torture della Cia, rimuovendo la parola ‘tortura’, sostituendola con la definizione per così dire edulcorata se non proprio totalmente deviata e deviante di ‘tecniche avanzate di interrogatorio’.
Questi sono solo alcuni dei tanti casi scoperti proprio grazie a un bot, un software automatico che registra anche i minimi cambiamenti delle singole voci di Wikipedia, pubblicandole contemporaneamente su Twitter. Nel caso delle modifiche americane, l'account è @congressedits, pronto a twittare i cambiamenti originati da un indirizzo IP del Congresso.
Il gruppo di attivisti che si è preso l'incarico di monitorare le modifiche, dopo i recenti accadimenti, si occupa per lo più dei più importanti paesi occidentali come Spagna, Irlanda, Regno Unit. In Italia è @ItaGovEdits che pubblica tutte le modifiche anonime inserite su Wikipedia a proposito di Camera, Senato, Presidenza del Consiglio e Presidenza della Repubblica. L'idea originale è di Tom Scott, tradotta poi in codice. Renato Gabriele è l’informatico di riferimento per l’Italia.
E a proposito del Bel Paese, risalgono solo al 28 novembre le modifiche apportate da un computer della Presidenza del Consiglio alla biografia del giornalista Alessandro Leogrande, morto prematuramente il 26 novembre scorso.
È indubbiamente necessaria un’educazione alla ricerca delle fonti, che può aiutare il ‘navigante’ più o meno esperto ma che di certo non impedisce la circolazione di notizie false. E se non bastasse neanche più verificarne la credibilità? L’utente sembra essere destinato all’eterno dubbio amletico del terzo millennio: fake news o non fake news?