Immagina di svegliarti una mattina, prendere il telefono e trovare decine di notifiche tutte dello stesso tenore. Leggi il primo messaggio che riesci ad aprire: è il tuo collega che ti scrive “Sei proprio tu nel video? Ne stanno parlando tutti in ufficio!”. Apri il link che ti ha inviato e ti si gela il sangue… E’ l’immagine di una persona che ha il tuo viso, la tua voce e persino i tuoi gesti e non indossa nulla. Sai di non essere tu, non puoi esserlo, eppure per chi lo guarda può apparire reale.
Si tratta del fenomeno comunemente denominato deepfake: video o registrazioni vocali generati o immagini alterate realisticamente mediante le tecnologie di intelligenza artificiale.
Grazie all’AI sono sufficienti alcune foto prese dai social e chiunque può diventare protagonista di video manipolati, umilianti, offensivi e persino a sfondo sessuale.
E’ noto infatti come l’evoluzione del predetto fenomeno abbia consentito un deciso salto qualitativo negli abusi a sfondo sessuale, anche mediante la produzione di video o immagini totalmente artefatte, generate con l’AI, che rappresentano un soggetto inserito in contesti sessuali che mai ha vissuto realmente.
Il panorama normativo ha tentato di far fronte alla peculiarità della diffusione di contenuti manipolati mediante il ricorso a normative preesistenti; tuttavia, senza adeguato riscontro. E’ per tale ragione che il legislatore italiano è intervenuto mediante la promulgazione della legge 132 del 2025, considerato il primo intervento organico dell’ordinamento italiano volto a disciplinare ricerca, sviluppo, impiego e controllo dei sistemi AI, ontologicamente connesso al Regolamento UE 1689/24, il c.d. AI Act. E’ grazie alla legge suindicata che ha avuto ingresso nel codice penale italiano il nuovo reato di cui all’art. 612 quater c.p. rubricato “Illecita diffusione di contenuti generati o alterati con sistemi di intelligenza artificiale”. Si tratta di una norma pensata per contrastare la creazione e diffusione illecita di contenuti manipolati con le nuove tecnologie.
Ma cosa significa concretamente?
Significa che il legislatore, su spinta di un indirizzo accolto già dall’Unione Europea, ha voluto colmare un vuoto con il fine di tutelare nello specifico, alla luce dello sviluppo tecnologico, determinati diritti fondamentali. Dunque, se qualcuno con l’impiego dell’AI crea o diffonde, senza che tu abbia prestato il consenso, un contenuto falso che lede la tua reputazione, la tua dignità o la tua sfera personale, cagionando a te perciò stesso un danno ingiusto non necessariamente di carattere patrimoniale, ed ingannando sulla genuinità del contenuto, oggi ne risponde penalmente. Il nuovo art. 612 quater c.p. punisce l’autore della condotta con la pena della reclusione da uno a cinque anni.
L’importanza del nuovo reato si desume anche dalla potenzialità della condotta di operare su larga scala. E’ sufficiente uno scatto qualsiasi o un profilo social per diventare il c.d. soggetto passivo del reato, ossia la vittima. Ecco il fulcro della questione: le nuove tecnologie hanno esposto potenzialmente chiunque ad essere vittima di questo reato. Ed è proprio la celerità tipica delle tecnologie che, sebbene sia un vantaggio indiscusso in altri contesti, posta su questo piano ci espone al rischio: infatti, la velocità di diffusione online dei contenuti rende perciò stesso facile percepire come reale quella che è mera alterazione della realtà.
Dunque, il nuovo reato di cui all’art. 612 quater c.p. diventa cruciale: infatti, stabilisce che la manipolazione dell’identità digitale di una persona ed il suo impiego contro quest’ultima non ha solo rilevanza sul piano morale, ma è un fatto che costituisce un reato.
Article in collaboration with AW LEGAL and VISIUS
AW LEGAL is a law firm specializing in Intellectual Property, Privacy, and Legal Tech. VISIUS offers legal assistance and strategic advice to individuals and businesses, in the areas of white and corporate criminal law, Swiss law, and new technology law.



