Dal presidente del consiglio Giorgia Meloni, passando per le influencer come Chiara Ferragni, fino alle donne più comuni, tutte si sono ritrovate vittime di una forma inquietante di abuso digitale: foto personali – a volte ricavate dai social, altre create ex novo con tecniche di intelligenza artificiale – manipolate per apparire nude o in contesti sessuali non richiesti. Parallelamente, fioriscono video generati dall’IA che sembrano reali, mostrano volti noti e volti comuni, e diffondono disinformazione e cyberbullismo sessista.
La tecnologia che facilita tutto ciò non è più pura fantascienza: grazie a modelli di generative-AI e app a portata di tutti, creare un “deepfake” diventa semplice, rapido e spesso impunito. Il danno è enorme: violazione della privacy, della dignità e diffusione di falsi che possono rovinare reputazioni, relazioni e vite. In questo contesto entrano in gioco due questioni chiave: il consenso e la trasparenza.
In Italia, la recente legge quadro sull’intelligenza artificiale stabilisce che la diffusione di immagini o video generati dall’IA senza il consenso della persona rappresentata può essere punita fino a cinque anni di carcere. Il reato, definito di “deepfake”, è entrato in vigore lo scorso 10 ottobre con l’articolo 612 quater della legge n. 132/2025. Sul piano della trasparenza, l’AI Act dell’Unione Europea (2024/1689) impone che i contenuti generati o manipolati da IA siano chiaramente etichettati come tali: “artificialmente generato o manipolato”. Tuttavia, l’obbligo non è ancora universalmente applicato e molte piattaforme non riportano alcuna segnalazione. In pratica: sì, la legge punta all’etichettatura, ma no, non ogni video o immagine generata da IA viene oggi segnalata, e spesso il pubblico fatica a distinguere reale e artificiale.
Abituati a scrollare, guardare, condividere, il rischio è duplice: normalizzazione di abusi digitali e diffusione di disinformazione. Video falsi che mostrano persone famose o comuni in situazioni mai accadute possono influenzare opinione pubblica, relazioni, reputazioni.
Una domanda ci riguarda direttamente: siamo davvero pronti a riconoscere che quel volto apparentemente reale potrebbe essere finto e che quel contenuto potrebbe essere un’arma digitale? Infine, non si tratta solo di tecnologia: è una questione di rispetto, diritto all’immagine e tutela della dignità. Ogni passo normativo è un progresso, ma serve anche consapevolezza: leggere, verificare, sospettare quando qualcosa appare “troppo reale”. L’IA che “spoglia” foto o genera video ultra realistici senza etichettatura è un’ombra digitale della nostra generazione. Non ignoriamola: parliamone, informiamoci, difendiamoci.
Twitter:
martedì 18 Novembre 2025