Svelate le regole segrete: «Facebook incapace di controllare i post»

"Facebook incapace di controllare i post": svelate le regole segrete
«Facebook incapace di mantenere il controllo sul suo contenuto», «è cresciuta troppo, troppo in fretta», tanto che «spesso» i suoi...

OFFERTA SPECIALE

2 ANNI
99,98€
40€
Per 2 anni
ATTIVA SUBITO
OFFERTA MIGLIORE
ANNUALE
49,99€
19€
Per 1 anno
ATTIVA SUBITO
 
MENSILE
4,99€
1€ AL MESE
Per 3 mesi
ATTIVA SUBITO

OFFERTA SPECIALE

OFFERTA SPECIALE
MENSILE
4,99€
1€ AL MESE
Per 3 mesi
ATTIVA SUBITO
 
ANNUALE
49,99€
11,99€
Per 1 anno
ATTIVA SUBITO
2 ANNI
99,98€
29€
Per 2 anni
ATTIVA SUBITO
OFFERTA SPECIALE

Tutto il sito - Mese

6,99€ 1 € al mese x 12 mesi

Poi solo 4,99€ invece di 6,99€/mese

oppure
1€ al mese per 3 mesi

Tutto il sito - Anno

79,99€ 9,99 € per 1 anno

Poi solo 49,99€ invece di 79,99€/anno
«Facebook incapace di mantenere il controllo sul suo contenuto», «è cresciuta troppo, troppo in fretta», tanto che «spesso» i suoi moderatori - persone in carne e ossa, non algoritmi - hanno «appena 10 secondi» per fare una scelta. Per decidere, ad esempio, se rimuovere o meno video hard come quelli che in Italia hanno portato Tiziana Cantone al suicidio. È il quadro che emerge dalle rivelazioni del Guardian sulle regole interne di Facebook per la moderazione di argomenti sensibili, dal terrorismo alla pornografia.


Il social, incalzato spesso sul tema anche in Italia, si difende sottolineando che mantenere le persone «al sicuro» è la sua priorità. Quasi due miliardi di utenti e decine di migliaia di post condivisi ogni minuto: Facebook non riesce a monitorare tutto, afferma il quotidiano britannico. E oltre ai contenuti razzisti, violenti, porno e ai commenti d'odio, negli ultimi mesi sono finiti in diretta video sul social anche crimini particolarmente brutali. Dall'omicidio di un pensionato Cleveland al padre che, prima di suicidarsi, ha impiccato la figlia di 11 mesi in Thailandia.

Un problema che lo stesso Mark Zuckerberg ha riconosciuto pubblicamente e che il social ripete di affrontare nella maniera più seria. Non solo aggiungendo altre 3 mila persone alle 4.500 che già si occupano della moderazione dei contenuti, ma anche sviluppando strumenti sempre più avanzati. Intanto però lo scenario tracciato dall'inchiesta del Guardian è particolarmente torbido.

Sul social gli utenti possono segnalare i contenuti offensivi, ma poi cosa accade? Finora la «bibbia» interna di Facebook non era mai stata svelata. I documenti, oltre cento manuali interni, ottenuti e pubblicati dal quotidiano britannico rivelano per la prima volta come la compagnia decide quali contenuti possono o non possono restare sulla piattaforma. La sua «etica» insomma. Indicazioni che spesso portano i moderatori a prendere decisioni controverse.

Ecco qualche esempio. Secondo Facebook consentire la circolazione di certi video di violenza «può creare consapevolezza in chi li vede» ed è per questo che non vanno rimossi. È il caso dei video che mostrano abusi su bambini, a meno che non siano di tipo sessuale o sadico, e di quelli che mostrano violenza nei confronti degli animali, anche con mutilazioni o tortura. In questo caso però vanno almeno etichettati come «inquietanti».


Anche il linguaggio violento non è ritenuto «credibile» se le minacce sono «generiche». Indirizzarle a un personaggio noto, come il presidente americano Donald Trump, o a categorie vulnerabili, non è invece ammesso. Gli stessi moderatori sembrano avanzare perplessità, giudicando in particolare le indicazioni sui contenuti sessuali «le più complesse e confuse». Per fare un esempio, le immagini di aborti sono accettate «purché non mostrino nudità». Altro nodo quello della pubblicazione di filmati in cui le persone tentano di farsi del male: è consentita perché il social «non vuole censurare o punire chi è in difficoltà». Quando non c'è più possibilità di intervenire il video può essere rimosso. Leggi l'articolo completo su
Corriere Adriatico