Violenza digitale di genere: il lato oscuro del web. Il problema è reale e urgente

di Loretta Tani 

Ogni giorno, troppe donne vengono aggredite online. A volte è un insulto, altre volte una foto rubata, un video manipolato, un’identità stravolta per diventare oggetto di desiderio o scherno. La violenza di genere sul web non è solo un problema digitale: è un riflesso diretto della cultura misogina che ancora ci circonda. E che, online, trova terreno fertile e – peggio ancora – redditizio.
Sì, perché l’odio, il sensazionalismo e i contenuti sessualizzati fanno guadagnare: più click, più visualizzazioni, più pubblicità.

Le leggi ci sono, ma non bastano

Negli ultimi anni, qualcosa si è mosso. L’Unione Europea ha approvato misure importanti:

  • Digital Services Act (DSA): impone alle grandi piattaforme di moderare i contenuti nocivi e collaborare con le autorità.
  • Direttiva UE sulla violenza contro le donne (2024): riconosce anche la violenza digitale come reato.
  • In Italia: esiste già il reato di revenge porn (art. 612-ter c.p.) e una procedura d’urgenza per bloccare i contenuti non consensuali.

Tuttavia, le norme spesso non vengono applicate, o sono ignorate da chi dovrebbe usarle: le forze dell’ordine, le piattaforme, perfino le vittime che non sanno a chi rivolgersi.

Cosa serve, davvero

Dobbiamo passare dalle parole ai fatti. Ecco alcune azioni concrete che possiamo – e dobbiamo – pretendere:

  1. Norme aggiornate ed efficaci
  • Le leggi devono estendersi anche ai contenuti generati dall’intelligenza artificiale: strumenti come il deepfake e il morphing non possono continuare a esistere in una zona grigia. I deepfake, ovvero video manipolati con tecnologie di intelligenza artificiale che riproducono in modo estremamente realistico il volto o la voce di una persona, sono spesso utilizzati per scopi sessuali o diffamatori. Il morphing, invece, è una tecnica che altera digitalmente le immagini — ad esempio combinando il volto di una persona con il corpo di qualcun altro — per creare contenuti falsi ma dall’apparenza credibile.
  • Le piattaforme devono rimuovere in fretta i contenuti segnalati.
  • Servono canali di denuncia sicuri, rapidi, protetti.
  1. Responsabilità per le piattaforme
  • I contenuti d’odio non devono essere premiati: meno visibilità, niente monetizzazione.
  • Chi viola le regole va sospeso, non semplicemente “avvisato”.
  • Gli algoritmi devono essere trasparenti: dobbiamo sapere perché vediamo certi contenuti.
  1. Colpire chi guadagna dall’odio
  • Via i guadagni dai contenuti non consensuali.
  • Le aziende pubblicitarie devono sapere dove finiscono i loro soldi.
  1. Dati e trasparenza
  • Le piattaforme devono pubblicare numeri: quante denunce? Quante rimozioni? In quanto tempo?
  • I ricercatori devono poter studiare il fenomeno con accesso ai dati reali.

Ma soprattutto: serve un cambio culturale

Le leggi aiutano, ma non bastano. Serve educazione. Serve empatia. Serve coinvolgere anche gli uomini, troppo spesso assenti o silenti.
Non è “un problema delle donne”, è un problema di tutti. Serve un’educazione al rispetto che parta dalla scuola e arrivi ovunque: sport, media, politica, casa.

Un segnale importante arriva dalla politica
In questi giorni, diversi partiti hanno mosso passi concreti per affrontare il fenomeno dei deepfake e della violenza digitale. Il gruppo parlamentare di Alleanza Verdi e Sinistra (AVS) ha presentato una proposta che introduce il concetto di “diritto d’autore personale”, tutelando legalmente immagine, voce e identità. La proposta prevede anche un nuovo reato penale e l’obbligo, per le piattaforme, di rimuovere i contenuti illeciti. Anche altri schieramenti si stanno attivando: il Partito Democratico ha presentato proposte sulla trasparenza dei contenuti generati da IA e sulla tutela dei minori; Fratelli d’Italia ha avanzato misure per rendere obbligatoria l’etichettatura dei deepfake.

Un segnale trasversale, che prova a colmare un vuoto normativo sempre più urgente.

Non servono solo reazioni emotive a ogni nuovo scandalo. Serve un cambiamento strutturale, culturale e politico.
L’odio online contro le donne non è un effetto collaterale del web: è una forma di violenza sistemica che si nutre di silenzi, clic e algoritmi.
Ignorarlo significa accettarlo. E noi non possiamo più permettercelo.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *