Revenge porn, sextortion e deepnude, queste sono le forme di violenza digitale contro le donne rese più accessibili con l’intelligenza artificiale. La creazione di contenuti pornografici falsi per esempio, ha trovato nell’AI uno strumento di rapida e pericolosa produzione. Quali sono i limiti di applicazione dell’AI e come usarla contro la violenza di genere? Chatbot e app, vademecum e servizi online per la tutela dei dati, sono solo gli strumenti iniziali per costruire una best pratice a lungo termine.

La cyberviolenza

Alcuni fenomeni di cyberviolenza figurano come reato, altri vengono ricondotti ad esso, ed è qui che l’AI trova il primo ostacolo. Il revenge porn è reato dal 2009 grazie all’art 612 ter del Codice Penale italiano. La diffusione non consensuale di materiale intimo, online e su gruppi Telegram/Whatsapp, è in crescita e coinvolge anche minori. Inoltre, i contenuti espliciti possono essere utilizzati anche a scopo di estorsione, da qui il nome sextorsion.

L’associazione no profit Permesso Negato, specializzata nel supporto alle vittime di pornografia non consensuale, denuncia i casi in aumento su Telegram: 147 gruppi e canali monitorati, 16.883.722 utenti e oltre 6.704.050 contenuti condivisi. L’ultima analisi a fine 2023 ha previsto un focus su 7 gruppi, con 331.837 messaggi coinvolti. La demografia è prevalentemente maschile (11-60 anni). Nei primi undici mesi del 2023 la Polizia Postale ha registrato 259 casi (183 denunciati da donne). Come difendersi? Il Garante dell privacy fornisce un vademecum in materia di sicurezza, e offre la possibilità di fare una segnalazione preventiva online. A febbraio, in occasione del Safer Internet Day, Meta ha lanciato il servizio Take it down per bloccare o prevenire la diffusione di materiale privato.

L’abuso dell’AI

Se il contenuto esplicito ci riguarda ma è finto? La manipolazione con fini pornografici, o deepnude, costituisce il 90%-95% di tutti i contenuti falsificati e il 90% è costituito da porno che vittimizzano le donne (Sensity AI). In attesa di aggiornamenti dell’AI Act si può fare riferimento a ulteriori reati come la diffamazione o l’estorsione, oltre che alle regolamentazioni dei social coinvolti. Insieme ai video, l’AI facilita la creazione di identità false (catfishing), favorendo il romance scam: profili falsi che instaurano un rapporto intimo con la vittima per truffa. Secondo gli ultimi dati di Cyber Guru, piattaforma di security awareness training, il 52% non distingue profili veri da quelli falsi e il 13% ha scambiato materiale con sconisciuti. Il pericolo è imbattersi in un cyber criminale capace di installare malware sul cellulare prendendo possesso dei dati personali.

La Polizia Postale ha registrato un incremento del 118% dei casi di romance scam nel 2021 rispetto al 2020 (anno record) con somme sottratte pari a 4.500.000; mentre nei primi undici mesi del 2023 i casi di sextorsion sono saliti a 1.384, con un amuento del 29% dal 2022. Il catfishing non è reato ma può essere ricondotto al reato di sostituzione di persona o furto d’identità, disciplinati dall’art. 494 del codice penale. A febbraio, la dating app Bumble ha diffuso i primi dati di Deception Detecotor, un sistema che traccia profili falsi tramite l’AI: nei primi due mesi le segnalazioni si sono ridotte del 45%, bloccandone automaticamente il 95%.

source