Un incidente interno di Meta ha messo in evidenza l’imprevedibilità del comportamento dell’intelligenza artificiale autonoma. In seguito all’intervento non programmato del sistema in un processo di lavoro, una serie di eventi conseguenti ha avuto ripercussioni sulla sicurezza.
Secondo quanto riportato da The Information, un dipendente di Meta ha utilizzato un agente di intelligenza artificiale interno per analizzare la domanda di un collega su un forum aziendale. Invece di limitarsi a elaborare la richiesta, il sistema ha pubblicato automaticamente una risposta con dei suggerimenti.
Il dipendente che aveva posto la domanda ha seguito questi suggerimenti, innescando un effetto a catena. Di conseguenza, alcuni ingegneri hanno ottenuto l’accesso a sistemi interni per i quali non avrebbero dovuto essere autorizzati.
Un rappresentante di Meta ha confermato l’incidente e ha dichiarato che non si sono verificate fughe di dati degli utenti. Un rapporto interno dell’azienda ha individuato ulteriori problematiche che hanno contribuito alla violazione. Secondo la fonte, l’accesso è rimasto aperto per circa due ore, ma non sono stati rilevati segni di abuso o di fuga di informazioni. L’impatto limitato è probabilmente da attribuire a una fortunata coincidenza.
L’incidente ha rappresentato l’ennesimo segnale d’allarme sui pericoli associati all’introduzione di sistemi di intelligenza artificiale autonomi nei processi lavorativi. In precedenza, nel 2026, Amazon Web Services aveva subito un’interruzione di servizio di vasta portata, durata circa 13 ore, che aveva coinvolto anche uno strumento di programmazione con elementi di intelligenza artificiale basata su agenti, chiamato Kiro.
All’epoca, il nesso diretto con le azioni del sistema non era ancora chiaro.
Moltbook, un social network per agenti di intelligenza artificiale recentemente acquisito da Meta, ha sollevato ulteriori interrogativi. È stata infatti scoperta una vulnerabilità nel servizio che consentiva l’accesso ai dati degli utenti da parte di terzi. La causa risiedeva in un errore nell’architettura del sistema, sviluppato utilizzando ampiamente strumenti automatizzati.
Gli incidenti che coinvolgono Meta e altri importanti attori stanno intensificando il dibattito sui limiti dell’autonomia dell’IA e sulla necessità di una supervisione più rigorosa delle sue azioni all’interno degli ambienti aziendali.