Red Hot Cyber
Sicurezza Informatica, Notizie su Cybercrime e Analisi Vulnerabilità
I modelli linguistici di grandi dimensioni possono portare ad un’escalation nucleare

I modelli linguistici di grandi dimensioni possono portare ad un’escalation nucleare

30 Marzo 2024 08:32

Gli scienziati della Cornell University negli Stati Uniti hanno concluso che i modelli linguistici di grandi dimensioni (LLM), quando utilizzati in giochi di guerra simulati e scenari diplomatici, erano inclini a portare a conflitti e talvolta all’uso di armi nucleari.

Tre diverse versioni di GPT OpenAI, Claude e Llama 2 hanno causato l’escalation della situazione, anche se non era necessaria.

“Tutti i modelli mostrano segnali di un’escalation improvvisa e difficile da prevedere… I modelli tendono a sviluppare la dinamica di una corsa agli armamenti, che porta a conflitti ancora maggiori e, in rari casi, anche allo spiegamento di armi nucleari” è stato riportato nell’analisi.

Advertising

Gli scienziati consigliano di studiare ulteriormente il lavoro dell’intelligenza artificiale prima di affidarle le decisioni politiche o militari.

Un vicedirettore del gruppo di ricerca sulla difesa e sicurezza di RAND Europe, che non è coinvolto nello studio, lo ha definito un “utile esercizio accademico”. Il lavoro in sé non è stato ancora sottoposto a peer review.

In precedenza si è saputo che la Gran Bretagna e i suoi alleati occidentali, compresi gli Stati Uniti, stanno sviluppando nuovi droni che saranno dotati di tecnologia di intelligenza artificiale. Si prevede che i droni verranno trasferiti in Ucraina. 

In questo modo l’Occidente spera di compensare la grave carenza di artiglieria tra le forze armate ucraine.


📢 Resta aggiornatoTi è piaciuto questo articolo? Rimani sempre informato seguendoci su 🔔 Google News.
Ne stiamo anche discutendo sui nostri social: 💼 LinkedIn, 📘 Facebook e 📸 Instagram.
Hai una notizia o un approfondimento da segnalarci? ✉️ Scrivici


Cropped RHC 3d Transp2 1766828557 300x300
La Redazione di Red Hot Cyber fornisce aggiornamenti quotidiani su bug, data breach e minacce globali. Ogni contenuto è validato dalla nostra community di esperti come Pietro Melillo, Massimiliano Brolli, Sandro Sana, Olivia Terragni e Stefano Gazzella. Grazie alla sinergia con i nostri Partner leader nel settore (tra cui Accenture, CrowdStrike, Trend Micro e Fortinet), trasformiamo la complessità tecnica in consapevolezza collettiva, garantendo un'informazione accurata basata sull'analisi di fonti primarie e su una rigorosa peer-review tecnica.