Redazione RHC : 30 Marzo 2024 08:32
Gli scienziati della Cornell University negli Stati Uniti hanno concluso che i modelli linguistici di grandi dimensioni (LLM), quando utilizzati in giochi di guerra simulati e scenari diplomatici, erano inclini a portare a conflitti e talvolta all’uso di armi nucleari.
Tre diverse versioni di GPT OpenAI, Claude e Llama 2 hanno causato l’escalation della situazione, anche se non era necessaria.
“Tutti i modelli mostrano segnali di un’escalation improvvisa e difficile da prevedere… I modelli tendono a sviluppare la dinamica di una corsa agli armamenti, che porta a conflitti ancora maggiori e, in rari casi, anche allo spiegamento di armi nucleari” è stato riportato nell’analisi.
Supporta Red Hot Cyber attraverso
Gli scienziati consigliano di studiare ulteriormente il lavoro dell’intelligenza artificiale prima di affidarle le decisioni politiche o militari.
Un vicedirettore del gruppo di ricerca sulla difesa e sicurezza di RAND Europe, che non è coinvolto nello studio, lo ha definito un “utile esercizio accademico”. Il lavoro in sé non è stato ancora sottoposto a peer review.
In precedenza si è saputo che la Gran Bretagna e i suoi alleati occidentali, compresi gli Stati Uniti, stanno sviluppando nuovi droni che saranno dotati di tecnologia di intelligenza artificiale. Si prevede che i droni verranno trasferiti in Ucraina.
In questo modo l’Occidente spera di compensare la grave carenza di artiglieria tra le forze armate ucraine.
Redazione: [email protected]
© Copyright RED HOT CYBER. PIVA 16821691009