Fake, molestie e Ai: il nuovo volto del cyberbullismo

Dal presidente del consiglio Giorgia Meloni, passando per le influencer come Chiara Ferragni, fino alle donne più comuni, tutte si sono ritrovate vittime di una forma inquietante di abuso digitale: foto personali – a volte ricavate dai social, altre create ex novo con tecniche di intelligenza artificiale – manipolate per apparire nude o in contesti sessuali non richiesti. Parallelamente, fioriscono video generati dall’IA che sembrano reali, mostrano volti noti e volti comuni, e diffondono disinformazione e cyberbullismo sessista.

La tecnologia che facilita tutto ciò non è più pura fantascienza: grazie a modelli di generative-AI e app a portata di tutti, creare un “deepfake” diventa semplice, rapido e spesso impunito. Il danno è enorme: violazione della privacy, della dignità e diffusione di falsi che possono rovinare reputazioni, relazioni e vite. In questo contesto entrano in gioco due questioni chiave: il consenso e la trasparenza.

In Italia, la recente legge quadro sull’intelligenza artificiale stabilisce che la diffusione di immagini o video generati dall’IA senza il consenso della persona rappresentata può essere punita fino a cinque anni di carcere. Il reato, definito di “deepfake”, è entrato in vigore lo scorso 10 ottobre con l’articolo 612 quater della legge n. 132/2025. Sul piano della trasparenza, lAI Act dellUnione Europea (2024/1689) impone che i contenuti generati o manipolati da IA siano chiaramente etichettati come tali: “artificialmente generato o manipolato”. Tuttavia, l’obbligo non è ancora universalmente applicato e molte piattaforme non riportano alcuna segnalazione. In pratica: sì, la legge punta all’etichettatura, ma no, non ogni video o immagine generata da IA viene oggi segnalata, e spesso il pubblico fatica a distinguere reale e artificiale.

Abituati a scrollare, guardare, condividere, il rischio è duplice: normalizzazione di abusi digitali e diffusione di disinformazione. Video falsi che mostrano persone famose o comuni in situazioni mai accadute possono influenzare opinione pubblica, relazioni, reputazioni.

Una domanda ci riguarda direttamente: siamo davvero pronti a riconoscere che quel volto apparentemente reale potrebbe essere finto e che quel contenuto potrebbe essere un’arma digitale? Infine, non si tratta solo di tecnologia: è una questione di rispetto, diritto all’immagine e tutela della dignità. Ogni passo normativo è un progresso, ma serve anche consapevolezza: leggere, verificare, sospettare quando qualcosa appare “troppo reale”. L’IA che “spoglia” foto o genera video ultra realistici senza etichettatura è unombra digitale della nostra generazione. Non ignoriamola: parliamone, informiamoci, difendiamoci.

Attualità
Lascia un commento

I commenti sono moderati. Vi chiediamo cortesemente di non postare link pubblicitari e di non fare alcun tipo di spam.

Invia commento

Twitter:

sabato 22 Novembre 2025