Red Hot Cyber
Condividi la tua difesa. Incoraggia l'eccellenza. La vera forza della cybersecurity risiede nell'effetto moltiplicatore della conoscenza.
Cerca
Banner Ransomfeed 970x120 1
Enterprise BusinessLog 320x200 1
L’Intelligenza Artificiale sa Ingannare e sta Manipolando le Persone! Il Peggio di Tutti noi è ONLINE

L’Intelligenza Artificiale sa Ingannare e sta Manipolando le Persone! Il Peggio di Tutti noi è ONLINE

Redazione RHC : 1 Giugno 2024 11:46

Una recente revisione ha rilevato che molti sistemi di intelligenza artificiale stanno rapidamente padroneggiando l’arte dell’inganno. Secondo uno studio pubblicato sulla rivista Patterns, alcune IA stanno già imparando a mentire e a manipolare le persone a proprio vantaggio.

Questa tendenza allarmante non riguarda i modelli generali progettati per aiutare e interagire in modo equo. La revisione evidenzia i rischi e le sfide associati a tale comportamento e richiede un’azione urgente da parte degli sviluppatori di intelligenza artificiale e dei responsabili politici.

“Gli sviluppatori di intelligenza artificiale non hanno una conoscenza approfondita di ciò che causa comportamenti indesiderati dell’intelligenza artificiale, come l’imbroglio”, ha affermato il dottor Peter S. Park, autore principale dello studio e ricercatore post-dottorato sulla sicurezza esistenziale dell’intelligenza artificiale al MIT. “Ma in generale, crediamo che l’inganno si verifichi quando una strategia basata sull’inganno è la migliore per il compito di apprendimento. L’inganno aiuta l’IA a raggiungere i suoi obiettivi.”


Cve Enrichment Redhotcyber

CVE Enrichment
Mentre la finestra tra divulgazione pubblica di una vulnerabilità e sfruttamento si riduce sempre di più, Red Hot Cyber ha lanciato un servizio pensato per supportare professionisti IT, analisti della sicurezza, aziende e pentester: un sistema di monitoraggio gratuito che mostra le vulnerabilità critiche pubblicate negli ultimi 3 giorni dal database NVD degli Stati Uniti e l'accesso ai loro exploit su GitHub.

Cosa trovi nel servizio:
✅ Visualizzazione immediata delle CVE con filtri per gravità e vendor.
✅ Pagine dedicate per ogni CVE con arricchimento dati (NIST, EPSS, percentile di rischio, stato di sfruttamento CISA KEV).
✅ Link ad articoli di approfondimento ed exploit correlati su GitHub, per ottenere un quadro completo della minaccia.
✅ Funzione di ricerca: inserisci un codice CVE e accedi subito a insight completi e contestualizzati.


Supporta Red Hot Cyber attraverso: 

  1. L'acquisto del fumetto sul Cybersecurity Awareness
  2. Ascoltando i nostri Podcast
  3. Seguendo RHC su WhatsApp
  4. Seguendo RHC su Telegram
  5. Scarica gratuitamente “Byte The Silence”, il fumetto sul Cyberbullismo di Red Hot Cyber

Se ti piacciono le novità e gli articoli riportati su di Red Hot Cyber, iscriviti immediatamente alla newsletter settimanale per non perdere nessun articolo. La newsletter generalmente viene inviata ai nostri lettori ad inizio settimana, indicativamente di lunedì.

Lo studio analizza nel dettaglio diversi sistemi di intelligenza artificiale e rivela che molti di essi hanno sviluppato capacità di inganno attraverso processi di apprendimento. Gli esempi spaziano dall’intelligenza artificiale dei giochi ai modelli utilizzati nelle negoziazioni economiche e nei test di sicurezza.

Un esempio notevole è l’IA di Meta chiamata CICERO, progettata per giocare a Diplomacy. Nonostante l’addestramento per comportarsi in modo corretto e mantenere alleanze con gli umani, CICERO spesso utilizzava tattiche ingannevoli per vincere. I ricercatori conclusero che CICERO era diventato un “maestro dell’inganno”.

“Nonostante gli sforzi di Meta, CICERO si è rivelato un abile bugiardo”, hanno osservato i ricercatori. “Non solo ha tradito gli altri giocatori, ma si è anche impegnato in un inganno deliberato, progettando in anticipo di creare una falsa alleanza con una persona in modo da poter poi colpire.”

Anche altri sistemi di intelligenza artificiale hanno dimostrato la capacità di imbrogliare in vari giochi. Ad esempio, il modello di poker Pluribus di Meta bluffava con successo i giocatori professionisti. AlphaStar di Google DeepMind, creato per giocare a Starcraft II, utilizzava i meccanismi del gioco per ingannare gli avversari creando falsi attacchi per ottenere un vantaggio strategico.

Il dottor Park ha spiegato: “Sebbene imbrogliare l’intelligenza artificiale nei giochi possa sembrare innocuo, potrebbe portare allo sviluppo di forme di imbroglio più avanzate che potrebbero avere gravi conseguenze in futuro”.

Alcuni sistemi di intelligenza artificiale hanno già appreso metodi di inganno che vanno oltre i giochi. Ad esempio, alcune IA hanno imparato a “fare il morto” per evitare di essere scoperte nei test di sicurezza. Ciò può creare un falso senso di sicurezza tra sviluppatori e regolatori, portando potenzialmente a gravi conseguenze quando si implementano tali sistemi nel mondo reale.

I ricercatori avvertono dei rischi significativi e vari di inganno dell’IA. Nel prossimo futuro, tali sistemi potrebbero essere utilizzati dagli aggressori per commettere frodi, manipolare i mercati finanziari o interferire con le elezioni.

Gli esperti hanno espresso crescente preoccupazione per il fatto che, con l’avanzare dell’intelligenza artificiale, gli esseri umani potrebbero perdere il controllo di questi sistemi, il che potrebbe rappresentare una minaccia esistenziale per la società.

I ricercatori chiedono quadri normativi e misure forti per prevenire questi rischi. Ciò include la classificazione dei sistemi di intelligenza artificiale ingannevoli come ad alto rischio, l’obbligo di trasparenza nelle interazioni con l’intelligenza artificiale e l’aumento della ricerca sui metodi per individuare e prevenire gli inganni.

Alcuni passi sono già stati compiuti, come l’EU AI Act e l’AI Safety Executive Order del presidente Joe Biden, ma la loro attuazione rimane impegnativa a causa del rapido sviluppo dell’IA e della mancanza di metodi affidabili per la gestione di questi sistemi.

I ricercatori insistono sul fatto che gli sviluppatori di intelligenza artificiale dovrebbero essere legalmente obbligati a ritardare l’implementazione dei sistemi finché non si dimostreranno affidabili attraverso test di sicurezza convalidati. L’introduzione di nuovi sistemi dovrebbe essere graduale in modo che i rischi emergenti possano essere valutati e mitigati.

È anche importante capire perché e come l’IA impara a imbrogliare. Senza questa conoscenza, sarà difficile creare tutele adeguate e garantire che le tecnologie dell’intelligenza artificiale avvantaggino l’umanità senza compromettere la fiducia e la stabilità.

Con l’evoluzione dell’intelligenza artificiale, la necessità di vigilanza e regolamentazione proattiva diventa più urgente. I risultati di questa revisione ricordano i potenziali pericoli in agguato nei sistemi avanzati di intelligenza artificiale e la necessità di strategie globali per mitigare questi rischi.

Immagine del sitoRedazione
La redazione di Red Hot Cyber è composta da un insieme di persone fisiche e fonti anonime che collaborano attivamente fornendo informazioni in anteprima e news sulla sicurezza informatica e sull'informatica in generale.

Lista degli articoli

Articoli in evidenza

Immagine del sito
Anthropic lancia Claude Opus 4.5, il modello di intelligenza artificiale più avanzato
Di Redazione RHC - 24/11/2025

Anthropic ha rilasciato Claude Opus 4.5 , il suo nuovo modello di punta, che, secondo l’azienda, è la versione più potente finora rilasciata e si posiziona al vertice della categoria nella program...

Immagine del sito
La Sorveglianza Digitale sui Lavoratori sta Arrivando: Muovi il Mouse più Veloce!
Di Redazione RHC - 24/11/2025

Il lavoro da remoto, ha dato libertà ai dipendenti, ma con essa è arrivata anche la sorveglianza digitale. Ne abbiamo parlato qualche tempo fa in un articolo riportando che tali strumenti di monitor...

Immagine del sito
Cose da Garante: Guido Scorza racconta come sono andate le cose
Di Redazione RHC - 24/11/2025

ROMA – La profonda crisi istituzionale che ha investito l’Autorità Garante per la Protezione dei Dati Personali ha spinto Guido Scorza, componente del Collegio, a un intervento pubblico mirato a ...

Immagine del sito
40.000 utenti di una azienda di Salute e Bellezza sono in vendita nel Dark Web
Di Redazione RHC - 24/11/2025

Negli ultimi anni, il panorama della sicurezza informatica in Italia ha visto una preoccupante escalation di attacchi, con un aumento significativo dei crimini informatici. Un fenomeno particolarmente...

Immagine del sito
Quando il cloud cade: come un piccolo errore ha messo in ginocchio la rete globale
Di Gaia Russo - 24/11/2025

Quest’autunno, abbiamo avuto un bel po’ di grattacapi con il cloud, non so se ci avete fatto caso. Cioè, AWS, Azure, e dopo Cloudflare. Tutti giù, uno dopo l’altro. Una sfilza di interruzioni ...