Red Hot Cyber
Sicurezza Informatica, Notizie su Cybercrime e Analisi Vulnerabilità
OpenAI: Amplificatore di Conoscenza o Strumento di Disinformazione?

OpenAI: Amplificatore di Conoscenza o Strumento di Disinformazione?

2 Giugno 2024 16:32

OpenAI, il creatore di ChatGPT, ha affermato di aver scoperto che i suoi strumenti di intelligenza artificiale vengono utilizzati per creare e diffondere disinformazione in operazioni legate a Cina, Iran e Israele. Mentre la guerra dell’informazione si intensifica nel periodo elettorale, la tecnologia sta diventando un’arma potente.

La società con sede a San Francisco ha affermato nel suo rapporto che diverse operazioni segrete hanno utilizzato i suoi modelli di intelligenza artificiale per generare testo e immagini in grandi volumi con meno errori rispetto al passato. Ciò includeva la creazione di commenti o risposte ai propri post. La politica di OpenAI vieta l’uso dei suoi modelli per ingannare o fuorviare.

Il contenuto della disinformazione riguardava argomenti come “il conflitto di Gaza, le elezioni in India, la politica in Europa e negli Stati Uniti e le critiche al governo cinese da parte di dissidenti cinesi e governi stranieri”, afferma OpenAI nel rapporto.

Le reti hanno utilizzato l’intelligenza artificiale anche per migliorare la propria produttività, utilizzandola per eseguire il debug del codice ed esaminare l’attività dei social media.

Le piattaforme di social media, tra cui Meta e YouTube di Google, hanno cercato di frenare la diffusione delle campagne di disinformazione, soprattutto a partire dalle elezioni presidenziali americane del 2016, quando è stato rivelato un tentativo di manipolare i voti da parte di una troll factory sconosciuta.

Sta crescendo la pressione sulle società di intelligenza artificiale come OpenAI poiché i rapidi progressi nella loro tecnologia rendono più economico e più semplice creare deepfake realistici e manipolare i media. Mentre circa 2 miliardi di persone si preparano per le elezioni di quest’anno, i politici sollecitano le aziende a implementare e rispettare misure di sicurezza adeguate.

Ben Nimmo, capo ricercatore di intelligence e indagini presso OpenAI, ha osservato in una chiamata con i giornalisti che le campagne non sono state in grado di aumentare “significativamente” la loro influenza utilizzando i modelli di OpenAI. Tuttavia, ha aggiunto: “Ora non è il momento di compiacersi. La storia dimostra che le operazioni di influenza fallite per anni possono improvvisamente avere successo se non vengono monitorate”.

OpenAI, sostenuta da Microsoft, ha affermato che si impegna a identificare tali campagne di disinformazione e sta sviluppando i propri strumenti basati sull’intelligenza artificiale per un migliore rilevamento e analisi. Il rapporto afferma inoltre che i sistemi di sicurezza dell’azienda stanno già rendendo difficile il funzionamento degli aggressori poiché i modelli si rifiutano di generare il testo o le immagini richieste.

OpenAI ha anche rivelato che diversi importanti attori della disinformazione sponsorizzata dallo stato hanno utilizzato i suoi strumenti. Tra questi, ad esempio, c’è la rete cinese Spamouflage, che promuove gli interessi di Pechino all’estero. La campagna ha utilizzato modelli OpenAI per generare testo o commenti in più lingue prima della pubblicazione su piattaforme come X.

Inoltre, è stata notata un’operazione precedentemente non segnalata chiamata Bad Grammar, che utilizzava modelli OpenAI per eseguire il debug del codice e creare brevi commenti politici che venivano poi pubblicati su Telegram.

È stato inoltre riferito che OpenAI ha fermato una campagna di disinformazione pro-Cina presumibilmente controllata da Tel Aviv da STOIC, che utilizzava modelli per generare articoli e commenti su vari social network.

Ti è piaciuto questo articolo? Ne stiamo discutendo nella nostra Community su LinkedIn, Facebook e Instagram. Seguici anche su Google News, per ricevere aggiornamenti quotidiani sulla sicurezza informatica o Scrivici se desideri segnalarci notizie, approfondimenti o contributi da pubblicare.

Cropped RHC 3d Transp2 1766828557 300x300
La Redazione di Red Hot Cyber fornisce aggiornamenti quotidiani su bug, data breach e minacce globali. Ogni contenuto è validato dalla nostra community di esperti come Pietro Melillo, Massimiliano Brolli, Sandro Sana, Olivia Terragni e Stefano Gazzella. Grazie alla sinergia con i nostri Partner leader nel settore (tra cui Accenture, CrowdStrike, Trend Micro e Fortinet), trasformiamo la complessità tecnica in consapevolezza collettiva, garantendo un'informazione accurata basata sull'analisi di fonti primarie e su una rigorosa peer-review tecnica.

Articoli in evidenza

Immagine del sitoInnovazione
Robot in cerca di carne: Quando l’AI affitta periferiche. Il tuo corpo!
Silvia Felici - 06/02/2026

L’evoluzione dell’Intelligenza Artificiale ha superato una nuova, inquietante frontiera. Se fino a ieri parlavamo di algoritmi confinati dietro uno schermo, oggi ci troviamo di fronte al concetto di “Meatspace Layer”: un’infrastruttura dove le macchine non…

Immagine del sitoCybercrime
DKnife: il framework di spionaggio Cinese che manipola le reti
Pietro Melillo - 06/02/2026

Negli ultimi anni, la sicurezza delle reti ha affrontato minacce sempre più sofisticate, capaci di aggirare le difese tradizionali e di penetrare negli strati più profondi delle infrastrutture. Un’analisi recente ha portato alla luce uno…

Immagine del sitoVulnerabilità
Così tante vulnerabilità in n8n tutti in questo momento. Cosa sta succedendo?
Agostino Pellegrino - 06/02/2026

Negli ultimi tempi, la piattaforma di automazione n8n sta affrontando una serie crescente di bug di sicurezza. n8n è una piattaforma di automazione che trasforma task complessi in operazioni semplici e veloci. Con pochi click…

Immagine del sitoInnovazione
L’IA va in orbita: Qwen 3, Starcloud e l’ascesa del calcolo spaziale
Sergio Corpettini - 06/02/2026

Articolo scritto con la collaborazione di Giovanni Pollola. Per anni, “IA a bordo dei satelliti” serviva soprattutto a “ripulire” i dati: meno rumore nelle immagini e nei dati acquisiti attraverso i vari payload multisensoriali, meno…

Immagine del sitoCyber Italia
Truffe WhatsApp: “Prestami dei soldi”. Il messaggio che può svuotarti il conto
Silvia Felici - 06/02/2026

Negli ultimi giorni è stato segnalato un preoccupante aumento di truffe diffuse tramite WhatsApp dal CERT-AGID. I messaggi arrivano apparentemente da contatti conosciuti e richiedono urgentemente denaro, spesso per emergenze come spese mediche improvvise. La…