Red Hot Cyber

La cybersecurity è condivisione.
Riconosci il rischio, combattilo, condividi le tue esperienze ed 
incentiva gli altri a fare meglio di te.

Cerca

I modelli linguistici di grandi dimensioni possono portare ad un’escalation nucleare

Redazione RHC : 30 Marzo 2024 08:32

Gli scienziati della Cornell University negli Stati Uniti hanno concluso che i modelli linguistici di grandi dimensioni (LLM), quando utilizzati in giochi di guerra simulati e scenari diplomatici, erano inclini a portare a conflitti e talvolta all’uso di armi nucleari.

Tre diverse versioni di GPT OpenAI, Claude e Llama 2 hanno causato l’escalation della situazione, anche se non era necessaria.

“Tutti i modelli mostrano segnali di un’escalation improvvisa e difficile da prevedere… I modelli tendono a sviluppare la dinamica di una corsa agli armamenti, che porta a conflitti ancora maggiori e, in rari casi, anche allo spiegamento di armi nucleari” è stato riportato nell’analisi.

Gli scienziati consigliano di studiare ulteriormente il lavoro dell’intelligenza artificiale prima di affidarle le decisioni politiche o militari.

Un vicedirettore del gruppo di ricerca sulla difesa e sicurezza di RAND Europe, che non è coinvolto nello studio, lo ha definito un “utile esercizio accademico”. Il lavoro in sé non è stato ancora sottoposto a peer review.

In precedenza si è saputo che la Gran Bretagna e i suoi alleati occidentali, compresi gli Stati Uniti, stanno sviluppando nuovi droni che saranno dotati di tecnologia di intelligenza artificiale. Si prevede che i droni verranno trasferiti in Ucraina. 

In questo modo l’Occidente spera di compensare la grave carenza di artiglieria tra le forze armate ucraine.

Redazione
La redazione di Red Hot Cyber è composta da un insieme di persone fisiche e fonti anonime che collaborano attivamente fornendo informazioni in anteprima e news sulla sicurezza informatica e sull'informatica in generale.