Redazione RHC : 2 Giugno 2024 16:32
OpenAI, il creatore di ChatGPT, ha affermato di aver scoperto che i suoi strumenti di intelligenza artificiale vengono utilizzati per creare e diffondere disinformazione in operazioni legate a Cina, Iran e Israele. Mentre la guerra dell’informazione si intensifica nel periodo elettorale, la tecnologia sta diventando un’arma potente.
La società con sede a San Francisco ha affermato nel suo rapporto che diverse operazioni segrete hanno utilizzato i suoi modelli di intelligenza artificiale per generare testo e immagini in grandi volumi con meno errori rispetto al passato. Ciò includeva la creazione di commenti o risposte ai propri post. La politica di OpenAI vieta l’uso dei suoi modelli per ingannare o fuorviare.
Il contenuto della disinformazione riguardava argomenti come “il conflitto di Gaza, le elezioni in India, la politica in Europa e negli Stati Uniti e le critiche al governo cinese da parte di dissidenti cinesi e governi stranieri”, afferma OpenAI nel rapporto.
Vuoi diventare un esperto del Dark Web e della Cyber Threat Intelligence (CTI)?
Stiamo per avviare il corso intermedio in modalità "Live Class" del corso "Dark Web & Cyber Threat Intelligence".
A differenza dei corsi in e-learning, disponibili online sulla nostra piattaforma con lezioni pre-registrate, i corsi in Live Class offrono un’esperienza formativa interattiva e coinvolgente.
Condotti dal professor Pietro Melillo, le lezioni si svolgono online in tempo reale, permettendo ai partecipanti di interagire direttamente con il docente e approfondire i contenuti in modo personalizzato.
Questi corsi, ideali per aziende, consentono di sviluppare competenze mirate, affrontare casi pratici e personalizzare il percorso formativo in base alle esigenze specifiche del team, garantendo un apprendimento efficace e immediatamente applicabile.
Contattaci tramite WhatsApp al 375 593 1011 per richiedere ulteriori informazioni oppure scriviti alla casella di posta [email protected]
Le reti hanno utilizzato l’intelligenza artificiale anche per migliorare la propria produttività, utilizzandola per eseguire il debug del codice ed esaminare l’attività dei social media.
Le piattaforme di social media, tra cui Meta e YouTube di Google, hanno cercato di frenare la diffusione delle campagne di disinformazione, soprattutto a partire dalle elezioni presidenziali americane del 2016, quando è stato rivelato un tentativo di manipolare i voti da parte di una troll factory sconosciuta.
Sta crescendo la pressione sulle società di intelligenza artificiale come OpenAI poiché i rapidi progressi nella loro tecnologia rendono più economico e più semplice creare deepfake realistici e manipolare i media. Mentre circa 2 miliardi di persone si preparano per le elezioni di quest’anno, i politici sollecitano le aziende a implementare e rispettare misure di sicurezza adeguate.
Ben Nimmo, capo ricercatore di intelligence e indagini presso OpenAI, ha osservato in una chiamata con i giornalisti che le campagne non sono state in grado di aumentare “significativamente” la loro influenza utilizzando i modelli di OpenAI. Tuttavia, ha aggiunto: “Ora non è il momento di compiacersi. La storia dimostra che le operazioni di influenza fallite per anni possono improvvisamente avere successo se non vengono monitorate”.
OpenAI, sostenuta da Microsoft, ha affermato che si impegna a identificare tali campagne di disinformazione e sta sviluppando i propri strumenti basati sull’intelligenza artificiale per un migliore rilevamento e analisi. Il rapporto afferma inoltre che i sistemi di sicurezza dell’azienda stanno già rendendo difficile il funzionamento degli aggressori poiché i modelli si rifiutano di generare il testo o le immagini richieste.
OpenAI ha anche rivelato che diversi importanti attori della disinformazione sponsorizzata dallo stato hanno utilizzato i suoi strumenti. Tra questi, ad esempio, c’è la rete cinese Spamouflage, che promuove gli interessi di Pechino all’estero. La campagna ha utilizzato modelli OpenAI per generare testo o commenti in più lingue prima della pubblicazione su piattaforme come X.
Inoltre, è stata notata un’operazione precedentemente non segnalata chiamata Bad Grammar, che utilizzava modelli OpenAI per eseguire il debug del codice e creare brevi commenti politici che venivano poi pubblicati su Telegram.
È stato inoltre riferito che OpenAI ha fermato una campagna di disinformazione pro-Cina presumibilmente controllata da Tel Aviv da STOIC, che utilizzava modelli per generare articoli e commenti su vari social network.
Nella giornata di oggi, la nuova cyber-gang “The Gentlemen” rivendica all’interno del proprio Data Leak Site (DLS) al laboratorio Santa Rita. Disclaimer: Questo rapporto include screenshot e/o t...
SAP ha reso disponibili degli aggiornamenti per la sicurezza Martedì, con l’obiettivo di risolvere varie vulnerabilità. Tra queste vulnerabilità, ve ne sono tre particolarmente critiche che si ve...
Ci stiamo avviando a passi da gigante vero l’uroboro, ovvero il serpente che mangia la sua stessa coda. Ne avevamo parlato qualche settimana fa che il traffico umano su internet è in calo vertigino...
A fine agosto, GreyNoise ha registrato un forte aumento dell’attività di scansione mirata ai dispositivi Cisco ASA. Gli esperti avvertono che tali ondate spesso precedono la scoperta di nuove vulne...
Con una drammatica inversione di tendenza, il Nepal ha revocato il blackout nazionale sui social media imposto la scorsa settimana dopo che aveva scatenato massicce proteste giovanili e causato almeno...