Contenuti violenti, estremisti, commenti razzisti, sessisti, pedofili e video inappropriati. È il linguaggio dell’odio del mondo virtuale che oggi colpisce anche Youtube. Come filtrare tutto ciò che passa dalla famosa piattaforma fino ad arrivare sui nostri schermi?


Ha risposto a questo quesito il CEO di Youtube Susan Wojcicki, che prevede entro il 2018 un grande rinforzo per il team di controllo, composto da diecimila persone: “i revisori umani rimangono essenziali sia per rimuovere i contenuti sia per addestrare i sistemi di Intelligenza artificiale, il giudizio umano è fondamentale per prendere decisioni che tengano conto del contesto di ciascun contenuto". Una strada già imboccata da Facebook. Il fondatore del social network più famoso, dopo diversi video shock e omicidi in “diretta”, ha deciso di non affidarsi più ai soli algoritmi e ha aggiunto tremila revisori ai 4.500 già presenti.
Oltre al controllo umano, ormai indispensabile, Youtube si affida anche a sistemi di intelligenza artificiale che rimuovono almeno il 70% dei video violenti entro otto ore dal caricamento. Otto ore sono tante e l’intelligenza artificiale non è abbastanza, ed è proprio per questo che si stringeranno ulteriormente le misure, soprattutto se il “pubblico” è composto anche dai più piccoli: l’idea è quella di collaborare con organizzazioni che in tutto il mondo si occupano proprio della sicurezza dei bambini che visitano la piattaforma per guardare cartoni animati, favole e tutorial di ogni genere.
"Prevediamo criteri più stringenti e maggiori controlli manuali e rinforzeremo il nostro team di revisori della pubblicità per essere sicuri che gli annunci compaiano solo dove previsto", annuncia Wojcicki. L’intenzione è quella di proteggere e prevenire la violenza e i malintenzionati.