diritto penalePivacy e Protezione dati.

Viviamo in un’era in cui la linea tra reale e virtuale è sempre più sottile. Una telefonata con la voce di un nostro caro in difficoltà, un video che ci attribuisce fatti mai accaduti, un messaggio capace di svuotare i nostri risparmi. Non più scenari di fantascienza, ma rischi concreti: un incubo digitale alimentato dall’uso illecito dell’intelligenza artificiale.
E la domanda che tutti si pongono è: “E se capitasse a me? Come potrei dimostrare la verità?”

IL CONTESTO NORMATIVO: L’EUROPA E L’ITALIA IN CAMPO

L’Unione Europea ha approvato il Regolamento (UE) 2024/1689, AI Act, il primo quadro normativo organico al mondo sull’intelligenza artificiale .
L’approccio è basato sul rischio: vietate le pratiche più pericolose, regole severe per i sistemi “ad alto rischio”, obblighi di trasparenza per i contenuti generati o manipolati.

Anche l’Italia si è mossa: la Legge-delega sull’IA (A.S. 1146, agosto 2024) è stata approvata. Il Capo V è dedicato al Codice Penale, con nuove fattispecie incriminatrici e aggravanti specifiche per l’uso illecito dell’IA. I decreti attuativi definiranno i dettagli, ma la direzione è chiara: contrasto a truffe, manipolazioni e deepfake.

LA GUERRA AI CONTENUTI INGANNEVOLI

Il deepfake è definito dall’AI Act come immagine, audio o video generato o manipolato dall’IA che appare falsamente autentico .
Le nuove norme agiscono su due fronti:

1. Obblighi di trasparenza (art. 50 AI Act).

Chi diffonde contenuti generati o manipolati deve dichiararlo esplicitamente. Un’etichetta che permetta all’utente di sapere che non si tratta di materiale autentico.

2. Nuovi reati e aggravanti penali.

Sostituzione di persona (art. 494 c.p.). Già oggi applicabile a chi crea profili fake con nome e foto altrui. La Cassazione ha riconosciuto il reato. A maggior ragione, un deepfake usato per impersonare altri rientra in questa fattispecie.

Truffa (art. 640 c.p.). Un video o una voce sintetizzata usata per ottenere denaro o vantaggi integra pienamente la truffa.

Diffamazione (art. 595 c.p.). Attribuire a una persona fatti falsi e offensivi tramite deepfake è diffamazione aggravata.

TUTELA DELL’INTEGRITÀ DI PERSONE E SISTEMI

Manipolazioni comportamentali. L’AI Act vieta sistemi che usano tecniche subliminali o manipolative tali da condizionare in modo significativo le decisioni di una persona, soprattutto se vulnerabile per età, disabilità o situazione sociale.

Attacchi informatici. Il regolamento richiama il rischio di data poisoning e adversarial attacks, capaci di alterare l’addestramento o ingannare modelli IA. L’Italia aggiornerà il codice penale anche con aggravanti specifiche per l’uso dell’IA nei reati informatici.

COME DIFENDERSI: GLI STRUMENTI OPERATIVI

1. Conservazione della prova digitale: screenshot, hash, URL e log servono per documentare l’origine del contenuto.

2. Segnalazione alle piattaforme: grazie al Digital Services Act (Reg. UE 2022/2065, art. 16), le piattaforme online devono rimuovere rapidamente contenuti illegali dopo notifica.

3. GDPR – diritto all’oblio (art. 17): se il deepfake contiene dati personali, si può chiedere la cancellazione immediata al titolare del trattamento o al Garante.

4. Azione civile d’urgenza (art. 700 c.p.c.): possibile ottenere dal giudice un’ordinanza per bloccare la diffusione del contenuto.

5. Denuncia/querela: per sostituzione di persona, diffamazione, truffa o reati informatici, a seconda del caso.

IN CONCLUSIONE…

La tecnologia corre, il diritto corre dietro. Ma non resta immobile. L’AI Act e la legge italiana offrono strumenti concreti per arginare i rischi. Non si tratta di fermare l’innovazione, ma di impedire che diventi un’arma contro la nostra identità, i nostri risparmi e la nostra reputazione. Governare il cambiamento, non subirlo: questo è il compito del diritto.

P.S.: Ovviamente la foto di questo articolo è creata con l’intelligenza artificiale 😉

Lascia un commento