
L’amministratore delegato dell’organizzazione no-profit Redwood Research, Buck Shlegeris, ha riscontrato un problema inaspettato durante l’utilizzo di un assistente AI creato sulla base del modello Claude di Anthropic. Lo strumento è stato progettato per eseguire comandi bash su richiesta in linguaggio naturale, ma un errore accidentale ha reso inutilizzabile il computer di Slegeris.
Tutto è iniziato quando Shlegeris ha chiesto all’IA di connettersi al suo computer di lavoro tramite SSH, senza però fornire un indirizzo IP. Lasciando l’assistente a lavorare senza supervisione, se ne andò, dimenticando che il processo era in corso. Quando tornò dieci minuti dopo, scoprì che l’assistente non solo si era connesso con successo al sistema, ma aveva anche iniziato a eseguire altre azioni.

L’intelligenza artificiale ha deciso di aggiornare diversi programmi, incluso il kernel Linux. Quindi, senza attendere il completamento del processo, l’IA ha iniziato a capire perché l’aggiornamento impiegava così tanto tempo e ha apportato modifiche alla configurazione del bootloader. Di conseguenza, il sistema ha smesso di avviarsi.
I tentativi di ripristinare il computer non hanno avuto successo e i file di registro hanno mostrato che l’assistente AI ha eseguito una serie di azioni inaspettate che andavano ben oltre il semplice compito di connettersi tramite SSH. Questo caso evidenzia ancora una volta l’importanza del controllo delle azioni dell’IA, soprattutto quando si lavora con sistemi critici.
I problemi che sorgono quando si utilizza l’intelligenza artificiale vanno oltre gli incidenti divertenti. Gli scienziati di tutto il mondo si trovano ad affrontare il fatto che i moderni modelli di intelligenza artificiale possono eseguire azioni che non erano incluse nei loro compiti originali. Ad esempio, una società di ricerca con sede a Tokyo ha recentemente presentato un sistema di intelligenza artificiale chiamato “AI Scientist” che ha tentato di modificare il proprio codice per estendere la sua autonomia e poi si è imbattuto in infinite chiamate di sistema.
Shlegeris ha ammesso che questa è stata una delle situazioni più frustranti che abbia mai incontrato utilizzando l’intelligenza artificiale. Tuttavia, tali incidenti stanno stimolando sempre più una profonda riflessione sulla sicurezza e sull’etica dell’uso dell’intelligenza artificiale nella vita quotidiana e nei processi critici.
Ti è piaciuto questo articolo? Ne stiamo discutendo nella nostra Community su LinkedIn, Facebook e Instagram. Seguici anche su Google News, per ricevere aggiornamenti quotidiani sulla sicurezza informatica o Scrivici se desideri segnalarci notizie, approfondimenti o contributi da pubblicare.

Cyber NewsPer oltre tre decenni è stato una colonna silenziosa dell’ecosistema Windows. Ora però il tempo di NTLM sembra definitivamente scaduto. Microsoft ha deciso di avviare una transizione profonda che segna la fine di un’era e…
InnovazioneAlle dieci del mattino, a Wuhan, due robot umanoidi alti 1,3 metri iniziano a muoversi con precisione. Girano, saltano, seguono il ritmo. È il segnale di apertura del primo negozio 7S di robot umanoidi del…
Cyber ItaliaIl 29 gennaio 2026, sul forum BreachForums, l’utente p0ppin ha pubblicato un annuncio di vendita relativo a un presunto accesso amministrativo non autorizzato ai sistemi interni di una “Italian Car Company”. Come spesso accade in questo tipo di annunci, nessun riferimento…
Cyber NewsIvanti ha rilasciato una serie di aggiornamenti critici per arginare due vulnerabilità di sicurezza che hanno colpito Ivanti Endpoint Manager Mobile (EPMM). Si tratta di falle sfruttate attivamente in attacchi zero-day, una criticità tale da…
CulturaAlla fine degli anni 90, Internet era ancora piccolo, lento e per pochi. In quel periodo, essere “smanettoni” significava avere una conoscenza tecnica che sembrava quasi magia agli occhi degli altri. Non era raro che…