
OpenAI, il creatore di ChatGPT, ha affermato di aver scoperto che i suoi strumenti di intelligenza artificiale vengono utilizzati per creare e diffondere disinformazione in operazioni legate a Cina, Iran e Israele. Mentre la guerra dell’informazione si intensifica nel periodo elettorale, la tecnologia sta diventando un’arma potente.
La società con sede a San Francisco ha affermato nel suo rapporto che diverse operazioni segrete hanno utilizzato i suoi modelli di intelligenza artificiale per generare testo e immagini in grandi volumi con meno errori rispetto al passato. Ciò includeva la creazione di commenti o risposte ai propri post. La politica di OpenAI vieta l’uso dei suoi modelli per ingannare o fuorviare.
Il contenuto della disinformazione riguardava argomenti come “il conflitto di Gaza, le elezioni in India, la politica in Europa e negli Stati Uniti e le critiche al governo cinese da parte di dissidenti cinesi e governi stranieri”, afferma OpenAI nel rapporto.
Avvio delle iscrizioni al corso Cyber Offensive Fundamentals Vuoi smettere di guardare tutorial e iniziare a capire davvero come funziona la sicurezza informatica? La base della sicurezza informatica, al di là di norme e tecnologie, ha sempre un unico obiettivo: fermare gli attacchi dei criminali informatici. Pertanto "Pensa come un attaccante, agisci come un difensore". Ti porteremo nel mondo dell'ethical hacking e del penetration test come nessuno ha mai fatto prima. Per informazioni potete accedere alla pagina del corso oppure contattarci tramite WhatsApp al numero 379 163 8765 oppure scrivendoci alla casella di posta [email protected].
Se ti piacciono le novità e gli articoli riportati su di Red Hot Cyber, iscriviti immediatamente alla newsletter settimanale per non perdere nessun articolo. La newsletter generalmente viene inviata ai nostri lettori ad inizio settimana, indicativamente di lunedì. |
Le reti hanno utilizzato l’intelligenza artificiale anche per migliorare la propria produttività, utilizzandola per eseguire il debug del codice ed esaminare l’attività dei social media.
Le piattaforme di social media, tra cui Meta e YouTube di Google, hanno cercato di frenare la diffusione delle campagne di disinformazione, soprattutto a partire dalle elezioni presidenziali americane del 2016, quando è stato rivelato un tentativo di manipolare i voti da parte di una troll factory sconosciuta.
Sta crescendo la pressione sulle società di intelligenza artificiale come OpenAI poiché i rapidi progressi nella loro tecnologia rendono più economico e più semplice creare deepfake realistici e manipolare i media. Mentre circa 2 miliardi di persone si preparano per le elezioni di quest’anno, i politici sollecitano le aziende a implementare e rispettare misure di sicurezza adeguate.
Ben Nimmo, capo ricercatore di intelligence e indagini presso OpenAI, ha osservato in una chiamata con i giornalisti che le campagne non sono state in grado di aumentare “significativamente” la loro influenza utilizzando i modelli di OpenAI. Tuttavia, ha aggiunto: “Ora non è il momento di compiacersi. La storia dimostra che le operazioni di influenza fallite per anni possono improvvisamente avere successo se non vengono monitorate”.
OpenAI, sostenuta da Microsoft, ha affermato che si impegna a identificare tali campagne di disinformazione e sta sviluppando i propri strumenti basati sull’intelligenza artificiale per un migliore rilevamento e analisi. Il rapporto afferma inoltre che i sistemi di sicurezza dell’azienda stanno già rendendo difficile il funzionamento degli aggressori poiché i modelli si rifiutano di generare il testo o le immagini richieste.
OpenAI ha anche rivelato che diversi importanti attori della disinformazione sponsorizzata dallo stato hanno utilizzato i suoi strumenti. Tra questi, ad esempio, c’è la rete cinese Spamouflage, che promuove gli interessi di Pechino all’estero. La campagna ha utilizzato modelli OpenAI per generare testo o commenti in più lingue prima della pubblicazione su piattaforme come X.
Inoltre, è stata notata un’operazione precedentemente non segnalata chiamata Bad Grammar, che utilizzava modelli OpenAI per eseguire il debug del codice e creare brevi commenti politici che venivano poi pubblicati su Telegram.
È stato inoltre riferito che OpenAI ha fermato una campagna di disinformazione pro-Cina presumibilmente controllata da Tel Aviv da STOIC, che utilizzava modelli per generare articoli e commenti su vari social network.
Ti è piaciuto questo articolo? Ne stiamo discutendo nella nostra Community su LinkedIn, Facebook e Instagram. Seguici anche su Google News, per ricevere aggiornamenti quotidiani sulla sicurezza informatica o Scrivici se desideri segnalarci notizie, approfondimenti o contributi da pubblicare.

CybercrimeSappiamo che i criminal hacker riescono sempre a sorprenderci, e anche questa volta ci stupiscono per le innovazione e i modi che inventano per poter superare gli ostacoli, come i filtri di antispam. I criminali…
VulnerabilitàI backup sono generalmente considerati l’ultima linea di difesa, ma questa settimana Veeam ci ha ricordato che i sistemi di backup stessi possono diventare punti di accesso per gli attacchi. L’azienda ha rilasciato aggiornamenti di…
DirittiIl presente contributo approfondisce le criticità tecniche e costituzionali della proposta di Regolamento COM/2022/209 CSAR(Child Sexual Abuse Regulation). Questo studio fa seguito all’inquadramento generale già delineato e si concentra sul conflitto tra l’integrità dei sistemi…
CybercrimePer gran parte degli ultimi due decenni, la sicurezza informatica si è fondata su un presupposto fondamentale: le attività malevole possono essere individuate, analizzate e contrastate prima che producano danni significativi. Questo assunto ha modellato…
CybercrimeUn nuovo report pubblicato dall’Huntress Tactical Response Team documenta un’intrusione estremamente sofisticata individuata nel dicembre 2025, nella quale un attore avanzato è riuscito a compromettere un’infrastruttura VMware ESXi sfruttando una VM escape, ovvero l’evasione da…