
Redazione RHC : 2 Giugno 2024 16:32
OpenAI, il creatore di ChatGPT, ha affermato di aver scoperto che i suoi strumenti di intelligenza artificiale vengono utilizzati per creare e diffondere disinformazione in operazioni legate a Cina, Iran e Israele. Mentre la guerra dell’informazione si intensifica nel periodo elettorale, la tecnologia sta diventando un’arma potente.
La società con sede a San Francisco ha affermato nel suo rapporto che diverse operazioni segrete hanno utilizzato i suoi modelli di intelligenza artificiale per generare testo e immagini in grandi volumi con meno errori rispetto al passato. Ciò includeva la creazione di commenti o risposte ai propri post. La politica di OpenAI vieta l’uso dei suoi modelli per ingannare o fuorviare.
Il contenuto della disinformazione riguardava argomenti come “il conflitto di Gaza, le elezioni in India, la politica in Europa e negli Stati Uniti e le critiche al governo cinese da parte di dissidenti cinesi e governi stranieri”, afferma OpenAI nel rapporto.
Prova la Demo di Business Log! Adaptive SOC italiano Log management non solo per la grande Azienda, ma una suite di Audit file, controllo USB, asset, sicurezza e un Security Operation Center PERSONALE, che ti riporta tutte le operazioni necessarie al tuo PC per tutelare i tuoi dati e informati in caso di problemi nel tuo ambiente privato o di lavoro.
Scarica ora la Demo di Business Log per 30gg
Se ti piacciono le novità e gli articoli riportati su di Red Hot Cyber, iscriviti immediatamente alla newsletter settimanale per non perdere nessun articolo. La newsletter generalmente viene inviata ai nostri lettori ad inizio settimana, indicativamente di lunedì. |
Le reti hanno utilizzato l’intelligenza artificiale anche per migliorare la propria produttività, utilizzandola per eseguire il debug del codice ed esaminare l’attività dei social media.
Le piattaforme di social media, tra cui Meta e YouTube di Google, hanno cercato di frenare la diffusione delle campagne di disinformazione, soprattutto a partire dalle elezioni presidenziali americane del 2016, quando è stato rivelato un tentativo di manipolare i voti da parte di una troll factory sconosciuta.
Sta crescendo la pressione sulle società di intelligenza artificiale come OpenAI poiché i rapidi progressi nella loro tecnologia rendono più economico e più semplice creare deepfake realistici e manipolare i media. Mentre circa 2 miliardi di persone si preparano per le elezioni di quest’anno, i politici sollecitano le aziende a implementare e rispettare misure di sicurezza adeguate.
Ben Nimmo, capo ricercatore di intelligence e indagini presso OpenAI, ha osservato in una chiamata con i giornalisti che le campagne non sono state in grado di aumentare “significativamente” la loro influenza utilizzando i modelli di OpenAI. Tuttavia, ha aggiunto: “Ora non è il momento di compiacersi. La storia dimostra che le operazioni di influenza fallite per anni possono improvvisamente avere successo se non vengono monitorate”.
OpenAI, sostenuta da Microsoft, ha affermato che si impegna a identificare tali campagne di disinformazione e sta sviluppando i propri strumenti basati sull’intelligenza artificiale per un migliore rilevamento e analisi. Il rapporto afferma inoltre che i sistemi di sicurezza dell’azienda stanno già rendendo difficile il funzionamento degli aggressori poiché i modelli si rifiutano di generare il testo o le immagini richieste.
OpenAI ha anche rivelato che diversi importanti attori della disinformazione sponsorizzata dallo stato hanno utilizzato i suoi strumenti. Tra questi, ad esempio, c’è la rete cinese Spamouflage, che promuove gli interessi di Pechino all’estero. La campagna ha utilizzato modelli OpenAI per generare testo o commenti in più lingue prima della pubblicazione su piattaforme come X.
Inoltre, è stata notata un’operazione precedentemente non segnalata chiamata Bad Grammar, che utilizzava modelli OpenAI per eseguire il debug del codice e creare brevi commenti politici che venivano poi pubblicati su Telegram.
È stato inoltre riferito che OpenAI ha fermato una campagna di disinformazione pro-Cina presumibilmente controllata da Tel Aviv da STOIC, che utilizzava modelli per generare articoli e commenti su vari social network.
Redazione
Il traffico globale, come sanno i lettori di RHC, viaggia per la maggior parte sotto il mare. Secondo TeleGeography, istituto specializzato nelle telecomunicazioni, nel mondo sono attivi più di 530 s...

Un’analisi condotta negli ultimi mesi aveva evidenziato come l’evoluzione dei sistemi di intelligenza artificiale stesse raggiungendo un punto critico per la sicurezza informatica, con capacità r...

Gli aggressori stanno attivamente sfruttando una falla critica nel sistema di protezione delle applicazioni web FortiWeb (WAF) prodotto da Fortinet, che potrebbe essere utilizzata come mezzo per condu...

Su uno dei più noti forum russi per la compravendita di vulnerabilità e strumenti offensivi, il thread è arrivato come una normale inserzione commerciale, ma il contenuto è tutt’altro che banale...

Shanghai, 11 novembre 2025 – Un nuovo studio condotto dallo Shanghai Artificial Intelligence Laboratory, in collaborazione con la Shanghai Jiao Tong University, la Renmin University of China e la Pr...