La svolta di Facebook: stop ai messaggi e ai video dei suprematisti bianchi

La svolta di Facebook: stop ai messaggi e ai video dei suprematisti bianchi
3 Minuti di Lettura
Mercoledì 27 Marzo 2019, 19:30
«L'intelligenza artificiale ha fallito». Così aveva ammesso in un lungo post il vicepresidente di Facebook, Guy Rosen, all'indomani della strage di Christchurch nelle moschee in Nuova Zelanda: una strage annunciata con un manifesto suprematista su Twitter e altri social da Brenton Tarrant che poi aveva filmato il massacro mandandolo live sulle piattaforme web. Un video tremendo visto in diretta da 200 persone e poi rilanciato da 4mila. E la svolta non si è fatta attendere:  Facebook infatti ha deciso di mettere al bando tutti i contenuti che fanno riferimento al nazionalismo bianco e ai gruppi di suprematisti bianchi. Saranno cancellati da tutte le sue piattaforme, compresa Instagram.

Il 15 marzo scorso ci sono voluti 29 minuti e migliaia di visualizzazioni prima che il video live del massacro fosse segnalato a Facebook e poi rimosso. Quando il social ha rimosso il video di 17 minuti, era stato visto circa 4.000 volte. Durante la trasmissione live Facebook non ha trovato nessun utente collegato che lo ha segnalato, e la prima segnalazione è arrivata solo 12 minuti dopo il termine della diretta. La società ha detto di aver rimosso 1,5 milioni di video degli attacchi di Christchurch nelle 24 ore successive all'attacco.

Per questo motivo, ad esempio, in Australia si è deciso che  i dirigenti di Facebook, Google, Twitter e altre compagnie di social media saranno passibili di pene detentive se le loro piattaforme mancheranno di rimuovere contenuto estremista violento, come già avviene per il materiale di abusi sessuali a minori.
Lo ha annunciato due giorni fa il primo ministro australiano Scott Morrison in un vertice a Brisbane con i vertici delle compagnie, dedicata al ruolo delle loro tecnologie nell'attacco alle moschee in Nuova Zelanda.


«Il problema che l'intelligenza artificiale nel corso degli anni ha fatto enormi progressi in molte aree, il che ci ha consentito di individuare proattivamente la stragrande maggioranza dei contenuti che rimuoviamo. Ma non è perfetta - aveva spiegato Rosen - per riconoscere testi, foto e video non consentiti l'AI ha bisogno di essere allenata con migliaia di esempi. Serve cioè la disponibilità di migliaia di testi o immagini di un determinato tipo - dal nudo alla violenza - per insegnare alla macchina a riconoscerli, e tale disponibilità in questo caso fortunatamente non c'è, perché gli eventi come quello neozelandese sono rari».

Altra difficoltà sta nel fare in modo che l'AI distingua un video come quello del killer Brenton Tarrant da filmati simili ma innocui, ad esempio la partita a un videogioco trasmessa in diretta. Rosen parla anche della difficoltà di intervenire su un video in diretta: «Riconosciamo che l'immediatezza dei video trasmessi in diretta rappresenti una sfida unica - aveva sottolineato  il vicepresidente, spiegando che Facebook usa l'AI e un team di persone per intervenire il prima possibile, ad esempio nei casi di suicidio. Il social - sottolinea - lavorerà per sfruttare meglio l'AI anche in casi come quello neozelandese
».
© RIPRODUZIONE RISERVATA