Foto di ragazze minorenni nude, ancora in età scolare, sono state condivise tra gli studenti di una scuola; ma secondo le vittime, sarebbero immagini non reali, ma generate dall'intelligenza artificiale. I genitori delle ragazzine riferiscono che sarebbero una trentina le ragazze di quattro diverse scuole di Almendralejo, citta della Spagna, prese di mira con immagini porno false.
Ricattate
L'età delle vittime, ricattate con richiesta di soldi per non essere diffuse, avrebbero tra 11 e 17 anni, ma la polizia avrebbe già identificato sette sospetti, coinvolti nella creazione e distribuzione delle immagini, deepfakes, generate con app che utilizzano l'apprendimento automatico per combinare il volto della vittima con immagini pornografiche provenienti da Internet.
Genitori in ansia
Miriam Al Adib, la madre di una delle vittime, ha detto che sua figlia di 14 anni le ha mostrato una foto di se stessa apparentemente nuda. "Se non conoscessi il corpo di mia figlia, questa foto sembrerebbe reale", ha detto la signora Al Adib, che ha utilizzato il suo account Instagram per avvisare gli altri della situazione e esortarli a segnalarla.
Immagini porno
Fátima Gómez, madre di una ragazzina di 12 anni, ha dichiarato al quotidiano El País di aver avuto un attacco di ansia quando ha saputo che sua figlia era stata presa di mira. Quando ha chiesto alla figlia se sapeva qualcosa di una fotografia di nudo, la ragazza le ha mostrato una chiacchierata avuta con un ragazzo su Instagram in cui lui le chiedeva dei soldi. Quando lei ha rifiutato, il ragazzo le ha inviato un'immagine falsa di lei nuda.
Profilo Abbonamenti Interessi e notifiche Utilità Contattaci
Logout