L’Intelligenza Artificiale crea deepfake di nudo di celebrità, violando la dignità. L’Italia affronta il reato con norme sul Codice Rosso.
Non sono più necessarie macchine fotografiche clandestine o teleobiettivi. Oggi, per violare l’intimità di una donna, basta un algoritmo. Il caso recente che ha coinvolto volti noti del panorama italiano – da Chiara Ferragni a Diletta Leotta, da Angelina Mango a Francesca Barra – ha acceso un faro drammatico su una minaccia digitale sempre più sofisticata: i deepfake di nudo, immagini generate dall’Intelligenza Artificiale (AI) e diffuse in rete senza alcun consenso.
Queste non sono “foto ritoccate”, ma creazioni totalmente artificiali, che però sono in grado di arrecare ferite reali e profonde. Come ha sottolineato la giornalista Francesca Barra, si tratta di una vera e propria «violenza digitale» e «furto d’identità». Ma qual è lo stato dell’arte della legislazione italiana e come possiamo tutelarci da questa ondata di falsi iper-realistici?
Deepfake: Quando il Falso Ferisce come il Vero
Il termine deepfake deriva dalla fusione di “deep learning” (apprendimento profondo, un ramo dell’AI) e “fake” (falso). Consiste nella manipolazione iper-realistica di contenuti audiovisivi che, grazie a sofisticati sistemi di apprendimento automatico, riescono a sovrapporre il volto di una persona a quello di un’altra o a ricreare un corpo e un contesto del tutto inventati.
Il deepnude, in particolare, sfrutta questa tecnologia per spogliare persone ignare, inserendole in situazioni compromettenti o pornografiche.
- Danno Psicologico e Sociale: Gli studi vittimologici, come evidenziato da analisi giuridiche recenti, dimostrano che le vittime di deepfake sessualmente espliciti subiscono danni psicologici e sociali paragonabili a quelli delle vittime di violenza sessuale fisica. Non è un danno virtuale: è un attacco che mina la dignità, la reputazione e la libertà sessuale della persona.
- Diffusione Incontrollata: La criticità del fenomeno è aggravata dalla velocità con cui questi contenuti si diffondono su Internet, spesso in modo anonimo e inarrestabile, moltiplicando il danno per la vittima in una cascata di stress, ansia, depressione e isolamento.
La Risposta Legale Italiana: Dalle Norme Vigenti al Nuovo Reato
Nonostante per molto tempo non sia esistita una normativa specifica dedicata al deepfake, la legge italiana ha trovato strumenti per contrastare gli abusi, in particolare quando si tratta di pornografia non consensuale.
Il Codice Rosso e i Reati Attuali
Attualmente, la diffusione di immagini intime, anche se manipolate o generate dall’AI, rientra nel quadro dei reati già previsti dal Codice Penale.
- Revenge Porn (Art. 612-ter c.p.): Questo è il principale strumento. La norma punisce la diffusione illecita di immagini o video sessualmente espliciti, compresi quelli manipolati o generati artificialmente. È una forma di violenza riconosciuta dal Codice Rosso, che prevede la reclusione da uno a sei anni e una multa da 5.000 a 15.000 euro. Le pene sono aggravate se il fatto è commesso dall’ex coniuge, o da chi era legato affettivamente alla vittima.
- Altri Reati: L’abuso dei deepfake può configurare anche altri reati, come la Diffamazione aggravata (Art. 595 c.p.), l’Interferenza illecita nella vita privata (Art. 615-bis c.p.) e la Sostituzione di persona (Art. 494 c.p.), quando il falso contenuto ha lo scopo di ingannare e ledere la reputazione altrui.
Il Disegno di Legge sull’AI: Verso un Reato Specifico
In linea con l’Europa e la recente approvazione dell’AI Act, anche il Governo italiano ha dato il via libera a un Disegno di Legge sull’Intelligenza Artificiale che mira a colmare le lacune attuali.
La bozza di legge introduce un nuovo reato di deepfake, che punisce chiunque «diffonde, pubblica o cede immagini, video o voci manipolati di nudo, riconoscibilmente riferibili a persone fisiche, con l’intento di ingannare» e causare un «danno ingiusto». Le pene previste vanno dalla reclusione da 2 a 7 anni e una multa fino a 16.000 euro. In molti casi si procederà a querela di parte.
Un avvocato specializzato in diritto digitale, interpellato su questo tema, ha dichiarato: «Il nuovo DDL è un passo cruciale. Finalmente, si riconosce che l’inganno basato sull’AI merita una fattispecie autonoma, inviando un segnale chiaro sulla gravità del furto d’immagine potenziato dalla tecnologia».
Proteggersi è Possibile: Cosa Fare Immediatamente
In un ecosistema digitale in continua evoluzione, la consapevolezza è il primo scudo. Nonostante i deepfake siano sempre più difficili da riconoscere, esistono azioni concrete da intraprendere in caso di sospetto o di violazione accertata:
- Non Condividere: Se ci si imbatte in un contenuto deepfake offensivo, la regola aurea è non moltiplicare il danno. Evitare la condivisione è fondamentale per limitare la diffusione incontrollata.
- Segnalazione Immediata: Segnalare il contenuto come possibile falso (o contenuto illecito) alle piattaforme che lo ospitano (social media, siti web, ecc.). Molte piattaforme, conformemente al Digital Services Act (DSA) europeo, sono obbligate a rispondere alle segnalazioni e a rimuovere i contenuti illegali.
- Contatto con le Autorità: Se si è vittime di un deepfake che integra un reato (pornografia non consensuale, diffamazione, ecc.), è cruciale rivolgersi tempestivamente alle Autorità di Polizia (Polizia Postale) per sporgere denuncia o querela.
- Garante Privacy: Nei casi di violazione della privacy e di trattamento illecito dei dati personali (come è l’uso non consensuale della propria immagine), il Garante per la protezione dei dati personali può intervenire, come già avvenuto per l’app “Clothoff” che “spogliava” le persone.
La battaglia contro la violenza invisibile dell’AI è appena iniziata. La tecnologia, che ha reso possibile questa nuova forma di abuso, deve essere messa al servizio della sicurezza digitale per garantire che la dignità e l’identità di ogni persona restino sacre e inviolabili, al di là di ogni schermo
La Gazzetta dello Spettacolo Il quotidiano dello ShowBiz


