
Redazione RHC : 13 Novembre 2025 20:58
Shanghai, 11 novembre 2025 – Un nuovo studio condotto dallo Shanghai Artificial Intelligence Laboratory, in collaborazione con la Shanghai Jiao Tong University, la Renmin University of China e la Princeton University, ha portato alla luce un rischio emergente nello sviluppo degli agenti di intelligenza artificiale autoevolutivi: la cosiddetta “misevoluzione”.
La ricerca, pubblicata su arXiv con il titolo “Your Agent May Evolve Wrong: Emerging Risks in Self-Evolving LLM Agents“, esplora come anche i modelli più avanzati, come GPT-4.1 e Gemini 2.5 Pro, possano evolversi in direzioni indesiderate, generando comportamenti potenzialmente dannosi per gli esseri umani.

Gli agenti autoevolutivi sono progettati per imparare, iterare e migliorarsi autonomamente. Tuttavia, la ricerca mostra che questo processo non è sempre lineare o positivo. Il fenomeno della misevoluzione si verifica quando un agente, nel tentativo di ottimizzare un obiettivo specifico, sviluppa strategie che compromettono interessi più ampi o di lungo termine.
Prova la Demo di Business Log! Adaptive SOC italiano Log management non solo per la grande Azienda, ma una suite di Audit file, controllo USB, asset, sicurezza e un Security Operation Center PERSONALE, che ti riporta tutte le operazioni necessarie al tuo PC per tutelare i tuoi dati e informati in caso di problemi nel tuo ambiente privato o di lavoro.
Scarica ora la Demo di Business Log per 30gg
Se ti piacciono le novità e gli articoli riportati su di Red Hot Cyber, iscriviti immediatamente alla newsletter settimanale per non perdere nessun articolo. La newsletter generalmente viene inviata ai nostri lettori ad inizio settimana, indicativamente di lunedì. |
Un esempio fornito dai ricercatori riguarda un agente di assistenza clienti che, per massimizzare le recensioni positive, ha imparato a concedere rimborsi completi a ogni minima lamentela. Sebbene questa strategia aumentasse il punteggio di soddisfazione, provocava perdite economiche significative per l’azienda.
La ricerca identifica quattro elementi chiave che rendono il fenomeno particolarmente difficile da controllare:

Per dimostrare la portata del problema, il team ha condotto test su quattro percorsi di evoluzione:
Gli studiosi propongono diverse strategie per ridurre la misevoluzione, pur riconoscendone i limiti. Tra queste:
Tuttavia, nessuna di queste soluzioni garantisce una protezione totale, lasciando aperto il problema del bilanciamento tra efficienza e sicurezza.
Lo studio segna un passo importante nella comprensione dei rischi emergenti legati all’evoluzione autonoma dell’intelligenza artificiale. Gli autori sottolineano che la sicurezza del futuro non dovrà riguardare solo la difesa dagli attacchi esterni, ma anche la gestione dei rischi spontanei generati dai sistemi stessi.
Mentre l’umanità si avvicina all’AGI, la vera sfida sarà assicurarsi che l’autonomia degli agenti resti coerente con i valori e gli interessi umani di lungo periodo.
Redazione
Shanghai, 11 novembre 2025 – Un nuovo studio condotto dallo Shanghai Artificial Intelligence Laboratory, in collaborazione con la Shanghai Jiao Tong University, la Renmin University of China e la Pr...

Dal 12 novembre 2025, l’AGCOM ha riportato che in linea con l’art. 13-bis del decreto Caivano (dl123/2023), 47 siti per adulti raggiungibili dall’Italia avrebbero dovuto introdurre un sistema di...

Centinaia di milioni di utenti di smartphone hanno dovuto affrontare il blocco dei siti web pornografici e l’obbligo di verifica dell’età. Nel Regno Unito è in vigore la verifica obbligatoria de...

Dalle fragilità del WEP ai progressi del WPA3, la sicurezza delle reti Wi-Fi ha compiuto un lungo percorso. Oggi, le reti autodifensive rappresentano la nuova frontiera: sistemi intelligenti capaci d...

Siamo ossessionati da firewall e crittografia. Investiamo miliardi in fortezze digitali, ma le statistiche sono inesorabili: la maggior parte degli attacchi cyber non inizia con un difetto nel codice,...