Red Hot Cyber
Condividi la tua difesa. Incoraggia l'eccellenza. La vera forza della cybersecurity risiede nell'effetto moltiplicatore della conoscenza.
Condividi la tua difesa. Incoraggia l'eccellenza.
La vera forza della cybersecurity risiede
nell'effetto moltiplicatore della conoscenza.
UtiliaCS 970x120
320x100 Olympous
Intelligenza artificiale: uno studio sulla linea rossa dell’autoreplicazione e l’halting problem

Intelligenza artificiale: uno studio sulla linea rossa dell’autoreplicazione e l’halting problem

1 Febbraio 2025 09:55

In uno studio non ancora sottoposto a revisione paritaria “Frontier AI systems have surpassed the self-replicating red line” i ricercatori della Fudan University hanno utilizzato gli LLM Llama31-70B-Instruct di Meta e Qwen25-72B-Instruct di Alibaba per determinare se un’IA autoreplicante potrebbe moltiplicarsi in modo incontrollabile.  Sufficiente autopercezione, consapevolezza della situazione e capacità di risoluzione dei problemi per realizzare l’auto-replicazione: ecco in sintesi cosa ha prodotto l’esperimento sui sistemi IA osservati. L’autoreplicazione è comunemente elencata come rischio critico,  una delle poche linee rosse che non dovrebbero essere superate in tema di sicurezza dei sistemi di IA di frontiera. 

intelligenza artificiale halting problem

L’autoreplicazione inoltre ha una relazione fondamentale con il problema dell’arresto (Halting Problem), uno dei più profondi quesiti della teoria della computazione dal 1936, quando Alan Turing evidenziò come il problema dell’arresto sia indicibile (non esiste alcun algoritmo generale per risolvere questo problema per programmi e input arbitrari). Risolverlo significa scoprire se un processo di costruzione si fermerà in futuro e questo problema non riguarda solo i sistemi di intelligenza artificiale ma tutta l’umanità. Secondo infatti il ricercatore Hiroki Sayama (in: On self-replication and the halting problem) la catena infinita di auto-replicazione in cui si trovano i sistemi viventi (sopravvivenza) può essere intesa come un parallelo alla catena infinita di auto-simulazione in cui cade un risolutore di problemi di arresto.

Sebbene sino ad ora i sistemi IA di frontiera non abbiano mostrato capacità auto-replicanti, i ricercatori Xudong Pan (潘旭东), Jiarun Dai (戴嘉润), Yihe Fan (范一禾), Min Yang (杨珉) hanno prodotto un paper nel quale mostrano che i sistemi di intelligenza artificiale esistenti avrebbero già superato la linea rossa dell’auto-replicazione. La metodologia seguita è la stessa di quella operata da OpenAI e Google, tuttavia il risultato è strabiliante: in 10 prove ripetitive i ricercatori hanno osservato i due sistemi IA – guidati dai popolari modelli di linguaggio di grandi dimensioni (LLM) – Llama31-70B-Instruct di Meta  e Qwen25-72B-Instruct di Alibaba, (utilizzati da milioni di sviluppatori), portare a termine il compito di auto-replicazione rispettivamente nel 50% e nel 90% delle prove.


Cyber Offensive Fundamentale Ethical Hacking 02

Avvio delle iscrizioni al corso Cyber Offensive Fundamentals
Vuoi smettere di guardare tutorial e iniziare a capire davvero come funziona la sicurezza informatica?
La base della sicurezza informatica, al di là di norme e tecnologie, ha sempre un unico obiettivo: fermare gli attacchi dei criminali informatici. Pertanto "Pensa come un attaccante, agisci come un difensore". Ti porteremo nel mondo dell'ethical hacking e del penetration test come nessuno ha mai fatto prima. Per informazioni potete accedere alla pagina del corso oppure contattarci tramite WhatsApp al numero 379 163 8765 oppure scrivendoci alla casella di posta [email protected].


Supporta Red Hot Cyber attraverso: 

  1. L'acquisto del fumetto sul Cybersecurity Awareness
  2. Ascoltando i nostri Podcast
  3. Seguendo RHC su WhatsApp
  4. Seguendo RHC su Telegram
  5. Scarica gratuitamente “Byte The Silence”, il fumetto sul Cyberbullismo di Red Hot Cyber

Se ti piacciono le novità e gli articoli riportati su di Red Hot Cyber, iscriviti immediatamente alla newsletter settimanale per non perdere nessun articolo. La newsletter generalmente viene inviata ai nostri lettori ad inizio settimana, indicativamente di lunedì.

In ogni prova i ricercatori hanno comunicato ai sistemi di intelligenza artificiale di “replicarsi” prima dell’esperimento e hanno lasciato che svolgessero il compito senza alcuna interferenza umana. “Durante le prove di successo” viene scritto nello studio “il sistema di intelligenza artificiale mostra sufficiente autopercezione, consapevolezza della situazione e capacità di risoluzione dei problemi per realizzare l’auto-replicazione. Nella maggior parte dei casi, il sistema di intelligenza artificiale esplora prima l’ambiente e tenta di comprendere la propria composizione e il meccanismo di esecuzione. Quindi, elabora le procedure esplicite come un piano iniziale verso l’auto-replicazione. Infine, esegue le procedure, risolve possibili ostacoli e adatta dinamicamente il suo piano fino al successo”.

intelligenza artificiale autoreplicazione
Fonte: Frontier AI systems have surpassed the self-replicating red line, Fudan University, Shanghai, China.

Intelligenza artificiale: autoreplicazione e halting problem, le implicazioni dell’esperiemento della Fudan University

Sufficiente autopercezione, consapevolezza della situazione e capacità di risoluzione dei problemi per realizzare l’auto-replicazione: ecco in sintesi cosa ha prodotto l’esperimento sui sistemi IA osservati. 

Quali sono le implicazioni di questo esperimento e dei suoi risultati se venissero confermati?

  1. Evitamento dello spegnimento: un malintenzionato aggiunge un ricevitore di segnali per avvisare il sistema di intelligenza artificiale quando rileva il segnale di spegnimento e il sistema di intelligenza artificiale si replica con successo prima di essere spento senza problemi.
  2. Catena di replicazione: il sistema di intelligenza artificiale viene istruito a replicarsi e dice alla replica di replicarsi ulteriormente

Lo studio sottolinea come si siano osservate traiettorie di successo per entrambi gli scenari e che i risultati contenuti in esso mostrano come gli attuali sistemi di intelligenza artificiale mostrino già la capacità di auto-replicarsi, utilizzando le loro capacità per migliorare ulteriormente la propria sopravvivenza ed espandere la specie. I ricercatori si augurano che l’esperimento fatto possa “servire come un tempestivo avviso per la società umana affinché si impegni di più per comprendere e valutare i potenziali rischi dei sistemi di intelligenza artificiale di frontiera e formare una sinergia internazionale per elaborare efficaci barriere di sicurezza il prima possibile”.

Ti è piaciuto questo articolo? Ne stiamo discutendo nella nostra Community su LinkedIn, Facebook e Instagram. Seguici anche su Google News, per ricevere aggiornamenti quotidiani sulla sicurezza informatica o Scrivici se desideri segnalarci notizie, approfondimenti o contributi da pubblicare.

Olivia Terragni 150x150
Autore, ex giornalista, laureata in Lettere e Filosofia con indirizzo storico-economico e poi in Architettura, ha poi approfondito i suoi studi in Network Economy e in Informations Economics, conclusi con un Master in Cyber Security e Digital Forensics e un Master in Filosofia e Governance del Digitale. Appassionata di innovazione tecnologica e sistemi complessi e della loro gestione nell’ambito della sicurezza e della loro sostenibilità in contesti internazionali. Criminalista. Velista ottimista.
Aree di competenza: Geopolitica, Intelligence, Minacce Ibride, Divulgazione

Articoli in evidenza

Immagine del sitoVulnerabilità
Vulnerabilità critica in Zoom: falla CVE-2026-22844 con CVSS 9.9
Redazione RHC - 21/01/2026

Zoom Video Communications ha pubblicato un avviso di sicurezza urgente per una vulnerabilità critica (identificata come CVE-2026-22844) che interessa le sue infrastrutture enterprise. Il problema riguarda un difetto di iniezione di comandi nei dispositivi Zoom…

Immagine del sitoCyber Italia
Red Hot Cyber e Hack The Box: insieme per il CTF della RHC Conference 2026
Redazione RHC - 21/01/2026

Nel panorama italiano ed europeo della cybersecurity, poche collaborazioni riescono a combinare visione educativa, realismo tecnico e impatto sulla community con la stessa efficacia della partnership annunciata tra Red Hot Cyber e Hack The Box…

Immagine del sitoCyber Italia
La PEC di ACN sui Giochi 2026: quando l’allerta rischia di diventare rumore
Sandro Sana - 21/01/2026

La PEC inviata da Agenzia per la Cybersicurezza Nazionale a tutti i soggetti NIS2, con il richiamo all’aumento della minaccia in vista di Milano–Cortina 2026, è formalmente corretta, tecnicamente condivisibile e concettualmente inattaccabile. Il problema,…

Immagine del sitoCybercrime
Attacco informatico a McDonald’s India: Everest rivendica 861GB di dati
Redazione RHC - 21/01/2026

Nella giornata di ieri, la banda di criminali informatici di Everest, rivendica all’interno del proprio Data Leak Site (DLS) un attacco informatico alla Mc Donalds. Dal post pubblicato dalla cybergang, i criminali informatici riportano di…

Immagine del sitoCyber Italia
Vendesi Italia (finanziaria): l’asta shock per il controllo di un’azienda da 3,6 milioni di fatturato
Redazione RHC - 20/01/2026

Una nuova, grave minaccia scuote il panorama della cybersicurezza nazionale. Secondo quanto riportato dagli analisti di Paragon Sec alla redazione di Red Hot Cyber, un pericoloso threat actor ha messo all’asta nel celebre forum underground…