Quando la Realtà Digitale Inganna

Il video che vedete in apertura è stato realizzato interamente con l’uso dell’intelligenza artificiale, partendo da una semplice fotografia reale. Il suo contenuto non ha nulla di illecito o dannoso, ma rappresenta perfettamente quanto sia diventato semplice manipolare la realtà digitale. E non sempre queste manipolazioni sono innocue.

Abbiamo spesso sentito parlare di “Deepfake”, senza forse comprenderne esattamente la portata e le implicazioni legali. Oggi, grazie all’intervento del legislatore, possiamo finalmente fare chiarezza su questo fenomeno in rapida espansione.

La Risposta del Legislatore: L’Articolo 612-Quater

Con la Legge n. 132/2025 sull’Intelligenza Artificiale del 25 settembre 2025, l’Italia si è dotata di una delle normative più attuali dell’ordinamento in materia di IA. Questa legge conferisce finalmente copertura normativa penalistica a condotte sempre più diffuse, che fino ad oggi potevano essere inquadrate solo forzatamente in fattispecie codicistiche più generiche.

I Deepfake hanno ora una fattispecie normativa specifica: l’articolo 612-quater del Codice Penale, che punisce l’illecita diffusione di contenuti generati o manipolati artificialmente.

Cosa Prevede la Norma

“Chiunque cagiona un danno ingiusto ad una persona, cedendo, pubblicando o altrimenti diffondendo, senza il suo consenso, immagini, video o voci falsificati o alterati mediante l’impiego di sistemi di intelligenza artificiale e idonei a indurre in inganno sulla loro genuinità, è punito con la reclusione da uno a cinque anni.

Il delitto è punibile a querela della persona offesa. Si procede tuttavia d’ufficio se il fatto è connesso con altro delitto per il quale si deve procedere d’ufficio ovvero se è commesso nei confronti di persona incapace, per età o per infermità, o di una pubblica autorità a causa delle funzioni esercitate”.

La norma mira dunque a punire la creazione e la diffusione non consensuale di immagini, video o audio falsi, spesso utilizzati per scopi di revenge porn, diffamazione o manipolazione psicologica.

Cosa Sono i Deepfake

I deepfake sono contenuti multimediali alterati tramite algoritmi di intelligenza artificiale capaci di ricreare situazioni e contesti mai esistiti, attribuendo condotte o dialoghi inesistenti a persone reali. Questa tecnologia può alimentare fenomeni devastanti come:

  • Cyberbullismo e revenge porn
  • Pedopornografia virtuale
  • Campagne di disinformazione politica
  • Danneggiamento reputazionale di imprese e professionisti
  • Truffe e frodi mediante impersonificazione

Le conseguenze sono molteplici: dalla compromissione della dignità e della reputazione al danno di immagine per soggetti mediaticamente esposti. Nei casi più gravi, coinvolgendo soggetti più vulnerabili come i minorenni, si possono verificare danni psicologici spesso irreparabili.

Una Norma Necessaria, Ma Con Zone Grigie

La nuova legge risponde a una lacuna normativa evidente: fino a poco tempo fa, la diffusione di deepfake non era esplicitamente punita, venendo spesso inquadrata forzatamente in reati generici come diffamazione o violenza privata. Questa norma introduce specificamente la fattispecie per colmare il vuoto, allineando l’Italia alle direttive europee sull’IA ad alto rischio.

I Punti Critici dell’Applicazione

È utile sottolineare come il discrimine della punibilità sia l’idoneità di tali realizzazioni video/audio/immagini tramite l’uso dell’IA ad “indurre in inganno sulla loro genuinità”.

Su questo punto, la norma presenta alcune criticità:

  1. Vaghezza interpretativa: può risultare difficile distinguere tra manipolazioni artistiche (ad esempio, in film o opere satiriche) e abusi dolosi idonei a determinare effettivo danno
  2. Prova del danno: elemento dirimente è che dall’inganno derivi un danno. Non tutti gli inganni sono illeciti – come già avviene per i delitti di falso – ma solo quelli dai quali può derivare un danno effettivo. Il tema si sposta quindi sulla prova del danno e sugli interessi tutelabili
  3. Interessi collettivi: al di là della lesione dei diritti soggettivi individuali, si pone il problema della tutela degli interessi diffusi e dei “diritti collettivi” (esempi: immagini alterate di manifestazioni, di attivisti ambientalisti, di avversari politici)
  4. Competenza territoriale: si porrà il problema, non sottovalutabile, di individuare il momento consumativo del reato in assenza di una regola certa dettata dal legislatore. Le regole supplettive dell’art. 9 c.p.p. non sempre mettono al riparo dai “ribalzi” della competenza, a tutto scapito della tutela dei diritti della persona offesa

Conclusioni: Un Primo Passo Importante

L’articolo 612-quater rappresenta un primo, importante passo nella regolamentazione di una società digitale etica. Tuttavia, occorrerà verificare nel tempo la concreta applicazione di questa norma nelle aule dei Tribunali e l’efficacia del suo potere di tutela.

ARTINLEX nasce proprio per affrontare queste nuove sfide, offrendo un approccio integrato che combina competenze legali, tecniche forensi e supporto psicologico per tutelare imprese e privati di fronte all’illecito utilizzo dell’intelligenza artificiale.


Se ritieni di essere vittima di deepfake o di altri abusi legati all’intelligenza artificiale, contattaci per una consulenza gratuita. Il nostro team multidisciplinare è a tua disposizione per valutare la tua situazione e individuare le migliori strategie di tutela.