Viviamo in un’era in cui la linea tra reale e virtuale è sempre più sottile. Una telefonata con la voce di un nostro caro in difficoltà, un video che ci attribuisce fatti mai accaduti, un messaggio capace di svuotare i nostri risparmi. Non più scenari di fantascienza, ma rischi concreti: un incubo digitale alimentato dall’uso illecito dell’intelligenza artificiale.
E la domanda che tutti si pongono è: “E se capitasse a me? Come potrei dimostrare la verità?”
IL CONTESTO NORMATIVO: L’EUROPA E L’ITALIA IN CAMPO
L’Unione Europea ha approvato il Regolamento (UE) 2024/1689, AI Act, il primo quadro normativo organico al mondo sull’intelligenza artificiale .
L’approccio è basato sul rischio: vietate le pratiche più pericolose, regole severe per i sistemi “ad alto rischio”, obblighi di trasparenza per i contenuti generati o manipolati.
Anche l’Italia si è mossa: la Legge-delega sull’IA (A.S. 1146, agosto 2024) è stata approvata. Il Capo V è dedicato al Codice Penale, con nuove fattispecie incriminatrici e aggravanti specifiche per l’uso illecito dell’IA. I decreti attuativi definiranno i dettagli, ma la direzione è chiara: contrasto a truffe, manipolazioni e deepfake.
LA GUERRA AI CONTENUTI INGANNEVOLI
Il deepfake è definito dall’AI Act come immagine, audio o video generato o manipolato dall’IA che appare falsamente autentico .
Le nuove norme agiscono su due fronti:
1. Obblighi di trasparenza (art. 50 AI Act).
Chi diffonde contenuti generati o manipolati deve dichiararlo esplicitamente. Un’etichetta che permetta all’utente di sapere che non si tratta di materiale autentico.
2. Nuovi reati e aggravanti penali.
Sostituzione di persona (art. 494 c.p.). Già oggi applicabile a chi crea profili fake con nome e foto altrui. La Cassazione ha riconosciuto il reato. A maggior ragione, un deepfake usato per impersonare altri rientra in questa fattispecie.
Truffa (art. 640 c.p.). Un video o una voce sintetizzata usata per ottenere denaro o vantaggi integra pienamente la truffa.
Diffamazione (art. 595 c.p.). Attribuire a una persona fatti falsi e offensivi tramite deepfake è diffamazione aggravata.
TUTELA DELL’INTEGRITÀ DI PERSONE E SISTEMI
Manipolazioni comportamentali. L’AI Act vieta sistemi che usano tecniche subliminali o manipolative tali da condizionare in modo significativo le decisioni di una persona, soprattutto se vulnerabile per età, disabilità o situazione sociale.
Attacchi informatici. Il regolamento richiama il rischio di data poisoning e adversarial attacks, capaci di alterare l’addestramento o ingannare modelli IA. L’Italia aggiornerà il codice penale anche con aggravanti specifiche per l’uso dell’IA nei reati informatici.
COME DIFENDERSI: GLI STRUMENTI OPERATIVI
1. Conservazione della prova digitale: screenshot, hash, URL e log servono per documentare l’origine del contenuto.
2. Segnalazione alle piattaforme: grazie al Digital Services Act (Reg. UE 2022/2065, art. 16), le piattaforme online devono rimuovere rapidamente contenuti illegali dopo notifica.
3. GDPR – diritto all’oblio (art. 17): se il deepfake contiene dati personali, si può chiedere la cancellazione immediata al titolare del trattamento o al Garante.
4. Azione civile d’urgenza (art. 700 c.p.c.): possibile ottenere dal giudice un’ordinanza per bloccare la diffusione del contenuto.
5. Denuncia/querela: per sostituzione di persona, diffamazione, truffa o reati informatici, a seconda del caso.
IN CONCLUSIONE…
La tecnologia corre, il diritto corre dietro. Ma non resta immobile. L’AI Act e la legge italiana offrono strumenti concreti per arginare i rischi. Non si tratta di fermare l’innovazione, ma di impedire che diventi un’arma contro la nostra identità, i nostri risparmi e la nostra reputazione. Governare il cambiamento, non subirlo: questo è il compito del diritto.
P.S.: Ovviamente la foto di questo articolo è creata con l’intelligenza artificiale 😉


