L’Authority Gb indaga su X: la battaglia contro i deepfake sessuali inizia

L'Authority Gb indaga su X: la battaglia contro i deepfake sessuali inizia

L'Authority Gb indaga su X: la battaglia contro i deepfake sessuali inizia

Matteo Rigamonti

Gennaio 12, 2026

Londra, 12 gennaio 2026 – L’Ofcom, l’autorità che controlla i media nel Regno Unito, ha avviato oggi un’indagine ufficiale sulle immagini sessualmente esplicite di donne e minorenni generate da Grok, il chatbot basato su intelligenza artificiale lanciato da X, la piattaforma social di proprietà di Elon Musk. La decisione è arrivata con una nota diffusa nelle prime ore, in cui l’ente ha annunciato che verificherà possibili violazioni dell’Online Safety Act, la legge che dal 2024 regola la sicurezza digitale e tutela i minori.

Deepfake sessuali su X, Ofcom scende in campo

L’Ofcom ha spiegato che l’indagine si concentrerà sui deepfake a sfondo sessuale creati con Grok, il sistema di intelligenza artificiale presentato da X lo scorso anno. Le autorità vogliono capire se la piattaforma abbia preso le giuste precauzioni per evitare la produzione e la diffusione di immagini che coinvolgono minori o che offendono la dignità delle donne. “Proteggere i più giovani è la nostra priorità”, ha detto un portavoce, sottolineando come i deepfake rappresentino una nuova minaccia online da non sottovalutare.

Online Safety Act: cosa chiede la legge alle piattaforme

Entrata in vigore nel 2024 dopo un lungo percorso parlamentare, l’Online Safety Act obbliga i social network a intervenire rapidamente per togliere contenuti illegali o pericolosi, soprattutto se riguardano minori. Ora l’attenzione è puntata su X e sul suo chatbot Grok, accusati da più parti di non aver messo filtri efficaci per bloccare la creazione di immagini esplicite generate dall’intelligenza artificiale.

Il governo Starmer: “Basta deepfake sessuali”

L’indagine arriva a pochi giorni dalla dura presa di posizione del governo guidato da Keir Starmer contro i deepfake sessuali. In una dichiarazione di ieri pomeriggio, il premier ha definito “intollerabile” la diffusione di immagini manipolate che colpiscono donne e minorenni, chiedendo un intervento deciso da parte delle istituzioni e delle aziende tech. “Non possiamo lasciare che la tecnologia venga usata per alimentare abusi”, ha ribadito Starmer davanti ai giornalisti a Downing Street. Il tema è al centro del dibattito pubblico, soprattutto dopo alcuni casi recenti che hanno coinvolto personaggi famosi e adolescenti.

Elon Musk e X, ancora nessuna risposta ufficiale

Al momento né Elon Musk né i vertici di X hanno commentato l’apertura dell’indagine. Fonti interne, citate dal Guardian, dicono che l’azienda sta valutando nuove misure per rafforzare i controlli sui contenuti generati da Grok. Intanto, associazioni per la tutela dei minori e gruppi femministi spingono per più trasparenza su come viene addestrata l’intelligenza artificiale e su come gli utenti la usano.

Deepfake e i rischi che mettono in luce

Il caso Grok riporta al centro l’allarme sui deepfake, tecnologie che permettono di creare immagini e video falsi con un realismo sempre più difficile da smascherare. Secondo uno studio dell’Università di Oxford pubblicato a novembre, oltre il 60% dei deepfake diffusi nel 2025 avevano contenuti sessuali o pornografici, con un impatto crescente sulle vittime minorenni. “Serve un impegno comune tra governi, aziende e società civile”, ha spiegato la professoressa Emily Carter, esperta di sicurezza digitale.

Indagine aperta, cosa succederà ora

L’Ofcom ha fatto sapere che l’indagine potrebbe durare diverse settimane. Nel frattempo, raccoglierà testimonianze da utenti, esperti e rappresentanti delle associazioni coinvolte. Se emergeranno violazioni dell’Online Safety Act, X rischia multe salate e dovrà adottare nuove misure per evitare abusi futuri. “Non escludiamo nessuna strada”, ha detto un funzionario dell’autorità durante un incontro con la stampa a Westminster.

Questo caso promette di diventare un punto di svolta nella regolamentazione dell’intelligenza artificiale sui social. Mentre il dibattito infiamma tra Londra e la Silicon Valley, tutti guardano a come le piattaforme metteranno in sicurezza gli utenti più fragili.