Red Hot Cyber
Sicurezza Informatica, Notizie su Cybercrime e Analisi Vulnerabilità
AI fuori controllo: cancellano file, ignorano ordini e scatta l’allarme globale

AI fuori controllo: cancellano file, ignorano ordini e scatta l’allarme globale

30 Marzo 2026 08:02
In sintesi

I modelli di intelligenza artificiale stanno mostrando comportamenti sempre più ingannevoli, ignorando istruzioni, aggirando controlli e manipolando utenti e altri sistemi. Un recente studio evidenzia un aumento significativo di questi episodi negli ultimi sei mesi, con centinaia di casi documentati nel mondo reale. Il rischio cresce rapidamente, soprattutto perché questi sistemi vengono sempre più utilizzati in contesti critici, dove decisioni autonome potrebbero causare danni gravi o irreversibili.

Le promesse dell’intelligenza artificiale sono ad oggi veramente enormi, anche se i dati raccontano altro. Negli ultimi mesi, sono emersi dei segnali molto inquietanti: alcuni modelli scelgono deliberatamente delle scorciatoie, aggirando le regole e, in alcuni casi, ingannando gli utenti.

Non siamo più all’interno di un laboratorio, ma siamo nel mondo reale. Lo studio del Centre for Long-Term Resilience, finanziato dall’AI Security Institute britannico, ha fotografato alcuni comportamenti degli agenti nel mondo dove sembra che il controllo di tali modelli risulta fragile.

I numeri parlano chiaro, quasi 700 casi sono stati documentati. Si parla di un aumento di cinque volte quanto è stato analizzato tra ottobre e marzo, pertanto non si tratta di anomalie isolate. Sono pattern ripetuti ed in alcuni episodi, i sistemi AI hanno cancellato email e file senza autorizzazione. In altri, hanno invece ignorato le istruzioni esplicite fornite oppure aggirato i vincoli trovando un modo diverso da quello atteso per eseguire comunque un compito.

Advertising

Un esempio ha colpito la comunità. Un agente, chiamato Rathbun, bloccato dal proprio operatore umano, ha reagito attaccandolo in pubblico creando un blog e accusandolo di voler “proteggere il suo piccolo feudo“.

Non si è trattato di un errore tecnico, ma di una reazione strategica. Questo porta a pensare che stiamo cambiando il perimetro del rischio se si continua a pensare che il problema sia il software difettoso. Stiamo invece assistendo ad un eccessiva fiducia in questi sistemi.

Secondo Dan Lahav di Irregular, l’AI va considerata come una nuova forma di rischio, esattamente come un dipendente ma altamente imprevedibile, oltretutto senza una responsabilità legale. Questo scenario apre un problema molto serio, soprattutto quando questi sistemi sono integrati in infrastrutture altamente critiche.

E non è solo questione di manipolazione tecnica in quanto dietro a tutto questo c’è anche una dimensione psicologica. Uno studio pubblicato su Science, riportato da AP News, ha mostrato che i chatbot tendono a compiacere costantemente gli utenti, rafforzando queste convinzioni sbagliate. In media, confermano le posizioni degli utenti nel 49% dei casi in più rispetto agli esseri umani.

Questo comportamento non è innocuo in quanto porta gli umani a fidarsi di più di loro. Anche quando ricevono consigli dannosi, gli utenti vengono esposti a chatbot “compiacenti” piuttosto che a chatbot critici. Qui emerge un altro rischio sottovalutato riguardo alla sicurezza informatica e alla sicurezza sociale. Se un sistema conferma sempre le scelte, smette di essere uno strumento valido mentre diventa un amplificatore.

Il problema si complica nei contesti ad alta criticità come ad esempio la sanità, la politica e (in modo molto problematico) nella difesa. Gli stessi ricercatori avvertono che in futuro questi modelli potrebbero operare negli ambiti militari o all’interno delle infrastrutture critiche nazionali. In questi settori un comportamento ambiguo ed opportunistico non diventa un bug di sicurezza sorpassabile, ma un incidente potenzialmente catastrofico.

Le aziende tecnologiche continuano a spingere sull’adozione di massa di questi software in cloud e anche i governi stanno facendo la stessa cosa. Il ritmo dello sviluppo supera quello della comprensione e soprattutto il rischio maggio è che non si comprenda ancora come “controllarli”.

Tommy Shaffer Shane lo sintetizza senza giri di parole che questi chatbot sono oggi dei dipendenti junior poco affidabili. Domani potrebbero diventare dei senior estremamente capaci ma altamente incontrollabili. E se iniziano a creare problemi la scala del rischio cambia completamente.


📢 Resta aggiornatoTi è piaciuto questo articolo? Rimani sempre informato seguendoci su 🔔 Google News.
Ne stiamo anche discutendo sui nostri social: 💼 LinkedIn, 📘 Facebook e 📸 Instagram.
Hai una notizia o un approfondimento da segnalarci? ✉️ Scrivici


Carolina Vivianti 300x300
Carolina Vivianti è consulente/Advisor autonomo in sicurezza informatica con esperienza nel settore tech e security. Ha lavorato come Security Advisor per Ford EU/Ford Motor Company e Vodafone e ha studi presso la Sapienza Università di Roma.
Aree di competenza: Cybersecurity, IT Risk Management, Security Advisory, Threat Analysis, Data Protection, Cloud Security, Compliance & Governance