Negli ultimi anni, lo sviluppo delle tecnologie basate sull’intelligenza artificiale ha reso estremamente semplice la creazione e la diffusione di immagini e video deepfake, ossia contenuti digitali manipolati che mostrano persone in contesti mai vissuti realmente.

Questo fenomeno ha generato un crescente allarme sociale ed interesse giuridico, soprattutto per le gravi ripercussioni sulla reputazione, sulla dignità e sulla libertà sessuale degli individui coinvolti. Dal punto di vista giuridico, la diffusione di deepfake, anche sessualmente espliciti, evidenzia limiti e vuoti di tutela nell’attuale panorama normativo.
Tradizionalmente, la protezione penale della libertà, anche sessuale, si fonda sulla materiale violazione del corpo della vittima; tuttavia, nell’era digitale, si registra la necessità di superare questa visione, riconoscendo come offensiva anche la lesione dell’identità e dell’autodeterminazione sessuale realizzata per via informatica.La rapidità e la facilità di produzione dei contenuti deepfake impongono una revisione dei presupposti tutelati dal diritto penale, tenendo conto delle gravi conseguenze sociali e psicologiche subite dalle vittime, che si estendono ben oltre la dimensione materiale.
In questa ottica, la recente riforma legislativa (pubblicazione nella Gazzetta Ufficiale n. 223 del 25 settembre 2025, della Legge 23 settembre 2025, n. 132 avente ad oggetto “Disposizioni e deleghe al Governo in materia di intelligenza artificiale“) mira a colmare il vulnus normativo originato dai nuovi rischi digitali, introducendo specifiche fattispecie penali contro la produzione e la diffusione non consensuale di contenuti realizzati mediante intelligenza artificiale.
Con il citato intervento legislativo è stata introdotta in Italia una nuova fattispecie penale che punisce l’illecita diffusione di immagini, video o audio sessualmente espliciti prodotti o alterati tramite sistemi di intelligenza artificiale, soprattutto in assenza del consenso della persona rappresentata.
La riforma nasce dalla necessità di tutelare la dignità, la privacy e l’integrità personale nell’era digitale, dove la generazione di “deepfake” e contenuti lesivi mediante IA era difficilmente perseguibile con gli strumenti tradizionali. Il legislatore ha colmato un vuoto normativo per quanto riguarda la tutela delle vittime maggiorenni, visto che, analogamente, la pedopornografia virtuale era già oggetto di specifica incriminazione (art. 600-quater.1 c.p.).
La ratio della riforma è evitare che la circolazione incontrollata di immagini manipolate digitalmente possa portare gravi danni reputazionali, psicologici e sociali, soprattutto se finalizzata all’estorsione, revenge porn o diffamazione. La normativa si inserisce nel contesto europeo dell’AI Act e del Digital Services Act.
Il nuovo reato: art. 612 quater c.p.
La fattispecie è disciplinata dall’art. 612-quater c.p. prevede che “Chiunque cagiona un danno ingiusto ad una persona, cedendo, pubblicando o altrimenti diffondendo, senza il suo consenso, immagini, video o voci falsificati o alterati mediante l’impiego di sistemi di intelligenza artificiale e idonei a indurre in inganno sulla loro genuinità, è punito con la reclusione da uno a cinque anni.
Il delitto è punibile a querela della persona offesa. Si procede tuttavia d’ufficio se il fatto è connesso con altro delitto per il quale si deve procedere d’ufficio ovvero se è commesso nei confronti di persona incapace, per età o per infermità, o di una pubblica autorità a causa delle funzioni esercitate“.
È sanzionata quindi la cessione, la pubblicazione o la diffusione (anche via social media o web) di immagini, video o audio alterati o generati con IA che possano trarre in inganno sull’autenticità e che producano un danno ingiusto alla persona rappresentata, in assenza del suo consenso.
La norma appare come un primo passo deciso verso una maggiore responsabilizzazione penale di chi diffonde contenuti sessualmente espliciti e lesivi tramite IA.
Nel medesimo solco si inserisce l’introduzione all’articolo 61 c.p. del n. 11-decies, ai sensi del quale viene considerato come aggravante “l’avere commesso il fatto mediante l’impiego di sistemi di intelligenza artificiale, quando gli stessi, per la loro natura o per le modalità di utilizzo, abbiano costituito mezzo insidioso, ovvero quando il loro impiego abbia comunque ostacolato la pubblica o la privata difesa, ovvero aggravato le conseguenze del reato“.
Per avere maggiori info, richiedere una consulenza legale e fissare un appuntamento contatta lo Studio.
🌐 www.studiolegalecalogiuri.it
📧info@studiolegalecalogiuri.it
📱3713013465