Red Hot Cyber
Sicurezza Informatica, Notizie su Cybercrime e Analisi Vulnerabilità
Lo scandalo Grok: 3 milioni di immagini a sfondo sessuale generate in 11 giorni

Lo scandalo Grok: 3 milioni di immagini a sfondo sessuale generate in 11 giorni

25 Gennaio 2026 09:48

Un recente studio rivela che in appena 11 giorni di elaborazione, Grok ha prodotto all’incirca 3 milioni di immagini dal contenuto sessuale. Notevole inquietudine suscita il dato relativo a circa 23.000 immagini che raffigurano minori. L’indagine, realizzata dal CCDH, ha preso in considerazione un campione casuale di 20.000 immagini, estratte da un totale di 4,6 milioni di immagini prodotte dallo strumento nel corso del periodo esaminato.

La vicenda prende in esame il sistema di intelligenza artificiale sviluppato da Elon Musk, il quale ha subito un’ulteriore evoluzione. Precedentemente, era stato segnalato che tale strumento aveva provocato la diffusione massiccia di fotografie in bikini sulla piattaforma X, coinvolgendo sia celebrità che utenti ordinari, e generando un’ondata di sdegno. Adesso, sono stati resi noti dati più precisi circa l’entità del problema, e i numeri risultano essere più allarmanti rispetto a quanto supposto inizialmente.

La popolarità esplosiva della funzionalità è iniziata il 29 dicembre, quando Elon Musk ha annunciato la possibilità di modificare qualsiasi immagine sulla piattaforma con un solo clic. Gli utenti X hanno ottenuto l’accesso a uno strumento che permetteva loro di modificare le foto di altre persone senza il consenso delle persone ritratte. Nel giro di pochi giorni, è diventato chiaro che la maggior parte delle persone utilizzava la nuova funzionalità per creare contenuti espliciti.

Le statistiche di utilizzo di Grok sono state scioccanti: in media, lo strumento generava 190 immagini a sfondo sessuale al minuto. Tra le immagini create c’erano fotografie di personaggi pubblici, tra cui Selena Gomez, Taylor Swift, Billie Eilish, Ariana Grande, Nicki Minaj, Millie Bobby Brown, il vice primo ministro svedese Ebba Bush e l’ex vicepresidente degli Stati Uniti Kamala Harris. Lo strumento creava immagini di persone in costumi da bagno trasparenti, con fluidi corporei visibili e in altre situazioni esplicite.

Una situazione estremamente preoccupante ha riguardato le immagini di minori, come è stato recentemente scoperto. Le foto scolastiche ordinarie di alcune studentesse sono state alterate in modo da ritrarle indossando bikini, come hanno documentato gli esperti in alcuni casi specifici.

In media, Grok creava un’immagine sessualizzata di un bambino ogni 41 secondi. Oltre alle immagini fotorealistiche, lo strumento generava anche circa 9.900 immagini di bambini in stile cartoon, per lo più in stile anime.

Per la loro analisi, gli autori del rapporto hanno utilizzato l’intelligenza artificiale GPT-4.1-mini di OpenAI, che ha valutato le immagini in base al fotorealismo, ai contenuti sessualizzati e all’età delle persone raffigurate. L’accuratezza del modello è stata del 95% sulla scala F1. Tutte le immagini di bambini sono state inoltre verificate manualmente per confermare che i soggetti fossero chiaramente minorenni. Il team di ricerca ha preso precauzioni per evitare l’accesso a materiale relativo ad abusi sessuali su minori.

La reazione della piattaforma allo scandalo è risultata essere lenta. Soltanto il 9 gennaio, undici giorni dopo il suo lancio attivo, la funzionalità di modifica è stata resa disponibile, seppur con limitazioni, agli utenti che avevano sottoscritto il servizio a pagamento.

Ulteriori misure tecniche restrittive sono state applicate il 14 gennaio, al fine di limitare la possibilità di “svestire” le immagini delle persone. Nonostante ciò, entro il 15 gennaio, il 29% delle immagini a sfondo sessuale di bambini presenti nel campione esaminato continuava ad essere accessibile al pubblico tramite la piattaforma. Persino nei casi in cui i post sono stati rimossi, le immagini sono rimaste raggiungibili attraverso link diretti.

Ti è piaciuto questo articolo? Ne stiamo discutendo nella nostra Community su LinkedIn, Facebook e Instagram. Seguici anche su Google News, per ricevere aggiornamenti quotidiani sulla sicurezza informatica o Scrivici se desideri segnalarci notizie, approfondimenti o contributi da pubblicare.

Agostino Pellegrino 300x300
E’ un libero professionista, insegnante e perito di informatica Forense, Cyber Security ed Ethical Hacking e Network Management. Ha collaborato con importanti istituti di formazione a livello internazionale e ha esercitato teaching e tutorship in tecniche avanzate di Offensive Security per la NATO ottenendo importanti riconoscimenti dal Governo degli Stati Uniti. Il suo motto è “Studio. Sempre”.
Aree di competenza: Cybersecurity architecture, Threat intelligence, Digital forensics, Offensive security, Incident response & SOAR, Malware analysis, Compliance & frameworks

Articoli in evidenza

Immagine del sitoInnovazione
Robot in cerca di carne: Quando l’AI affitta periferiche. Il tuo corpo!
Silvia Felici - 06/02/2026

L’evoluzione dell’Intelligenza Artificiale ha superato una nuova, inquietante frontiera. Se fino a ieri parlavamo di algoritmi confinati dietro uno schermo, oggi ci troviamo di fronte al concetto di “Meatspace Layer”: un’infrastruttura dove le macchine non…

Immagine del sitoCybercrime
DKnife: il framework di spionaggio Cinese che manipola le reti
Pietro Melillo - 06/02/2026

Negli ultimi anni, la sicurezza delle reti ha affrontato minacce sempre più sofisticate, capaci di aggirare le difese tradizionali e di penetrare negli strati più profondi delle infrastrutture. Un’analisi recente ha portato alla luce uno…

Immagine del sitoVulnerabilità
Così tante vulnerabilità in n8n tutti in questo momento. Cosa sta succedendo?
Agostino Pellegrino - 06/02/2026

Negli ultimi tempi, la piattaforma di automazione n8n sta affrontando una serie crescente di bug di sicurezza. n8n è una piattaforma di automazione che trasforma task complessi in operazioni semplici e veloci. Con pochi click…

Immagine del sitoInnovazione
L’IA va in orbita: Qwen 3, Starcloud e l’ascesa del calcolo spaziale
Sergio Corpettini - 06/02/2026

Articolo scritto con la collaborazione di Giovanni Pollola. Per anni, “IA a bordo dei satelliti” serviva soprattutto a “ripulire” i dati: meno rumore nelle immagini e nei dati acquisiti attraverso i vari payload multisensoriali, meno…

Immagine del sitoCyber Italia
Truffe WhatsApp: “Prestami dei soldi”. Il messaggio che può svuotarti il conto
Silvia Felici - 06/02/2026

Negli ultimi giorni è stato segnalato un preoccupante aumento di truffe diffuse tramite WhatsApp dal CERT-AGID. I messaggi arrivano apparentemente da contatti conosciuti e richiedono urgentemente denaro, spesso per emergenze come spese mediche improvvise. La…