Red Hot Cyber
Sicurezza Informatica, Notizie su Cybercrime e Analisi Vulnerabilità
I robot ora leggono la mente: correggono gli errori prima che questi accadano

I robot ora leggono la mente: correggono gli errori prima che questi accadano

24 Marzo 2026 06:58

I robot sono già in grado di eseguire i comandi con precisione, ma faticano ancora a riconoscere gli errori. In genere, una macchina si accorge di aver sbagliato solo dopo un impatto, un malfunzionamento o una manovra pericolosa.

I ricercatori dell’Oklahoma State University stanno cercando di migliorare questo aspetto. Il team sta sviluppando un sistema in cui un robot monitora i segnali cerebrali umani e modifica il proprio comportamento prima che un errore possa trasformarsi in un problema reale.

Advertising

Il progetto si basa sul controllo neuroadattivo. L’idea è piuttosto semplice: se l’operatore si accorge che il robot si sta comportando in modo errato, il sistema dovrebbe rilevare questo segnale interno e intervenire immediatamente. La macchina può quindi rallentare, fermarsi o restituire il controllo all’uomo in pochi millisecondi.

Per questo progetto, i ricercatori utilizzano un’interfaccia cervello-computer (BCI) che legge i cosiddetti potenziali correlati all’errore, o ErrP. Questi segnali si verificano quasi istantaneamente quando una persona si accorge di un errore, ancor prima di aver premuto un pulsante, mosso un joystick o persino reagito fisicamente. In altre parole, il cervello riconosce l’errore prima che il corpo possa iniziare a correggerlo.

I segnali vengono registrati tramite una cuffia elettroencefalografica indossabile. Questa registra l’attività elettrica del cervello e trasmette i dati a un sistema robotico controllato congiuntamente. Da lì in poi, tutto dipende dalla velocità di elaborazione: se il sistema rileva un segnale di errore caratteristico, il robot deve correggere immediatamente il proprio comportamento.

Questo approccio è particolarmente importante in situazioni in cui il costo di un eventuale fallimento è troppo elevato. I ricercatori citano esplicitamente attività come lo smantellamento di impianti nucleari o le ispezioni sottomarine. È prematuro affidare completamente il controllo a una macchina. L’ambiente è troppo imprevedibile e le conseguenze di un errore potrebbero essere troppo gravi.

È qui che emerge la debolezza della teleoperazione convenzionale , in cui un essere umano controlla un robot a distanza. Tecnicamente, l’operatore rimane coinvolto e può intervenire, ma in pratica questa modalità diventa rapidamente faticosa, richiede una concentrazione costante e non sempre consente una risposta tempestiva.

I segnali ErrP associati alla corteccia cingolata anteriore giocano un ruolo chiave in questo contesto. Questa regione cerebrale è coinvolta nel riconoscimento di errori e conflitti. Quando una persona vede un robot fare qualcosa di sbagliato, nel cervello compare quasi immediatamente uno schema elettrico caratteristico. I ricercatori stanno cercando di insegnare al sistema a rilevare questo schema e a convertirlo in un comando per la macchina.

Una delle principali sfide pratiche di tali sistemi è nota da tempo: i segnali cerebrali variano significativamente da individuo a individuo. È difficile creare un modello universale che funzioni ugualmente bene per tutti senza un adeguato addestramento. Pertanto, il team ha creato un decodificatore adattivo che apprende prima da schemi generali e poi si adatta allo specifico utente. Questo approccio dovrebbe ridurre i tempi di configurazione individuale, spesso dispendiosi in termini di tempo, che rendono le interfacce cervello-computer difficili da utilizzare.

La sicurezza è una questione a sé stante. Un robot non dovrebbe eseguire alcuna azione semplicemente perché il sistema interpreta un segnale come un errore. Per raggiungere questo obiettivo, i ricercatori utilizzano la logica temporale dei segnali (Signal Temporal Logic, TLL), un metodo formale che definisce regole precise per il comportamento della macchina nel tempo. In parole semplici, i segnali cerebrali fungono da allarme precoce, mentre la logica stabilisce i limiti entro i quali il robot può reagire. Questa combinazione è necessaria per evitare che il sistema diventi instabile, caotico o pericoloso.

I test vengono eseguiti negli ambienti NVIDIA Isaac Lab e Isaac ROS. Il team utilizza GPU RTX PRO 6000 per la modellazione e l’elaborazione del segnale in tempo reale. Questa configurazione consente simulazioni simultanee, test di risposta del robot e analisi dei dati cerebrali senza ritardi percepibili.

Sebbene al momento il progetto sembri essere principalmente una soluzione per compiti industriali complessi e pericolosi, la tecnologia ha un potenziale più ampio. I ricercatori stanno già discutendo di scenari medici in cui un principio simile potrebbe essere applicato a protesi ed esoscheletri . In un campo del genere, il sistema potrebbe anche adattarsi alle intenzioni umane in modo più rapido e preciso rispetto ai comandi meccanici convenzionali.

Se questo approccio si rivelerà efficace nella pratica, la robotica acquisirà un ulteriore e importante livello di sicurezza. La macchina non attenderà più che si verifichi un errore, ma inizierà a reagire nella frazione di secondo in cui l’essere umano si accorge per la prima volta che qualcosa non va.



Ti è piaciuto questo articolo? Ne stiamo discutendo nella nostra Community su LinkedIn, Facebook e Instagram. Seguici anche su Google News, per ricevere aggiornamenti quotidiani sulla sicurezza informatica o Scrivici se desideri segnalarci notizie, approfondimenti o contributi da pubblicare.

Carolina Vivianti 300x300
Carolina Vivianti è consulente/Advisor autonomo in sicurezza informatica con esperienza nel settore tech e security. Ha lavorato come Security Advisor per Ford EU/Ford Motor Company e Vodafone e ha studi presso la Sapienza Università di Roma.
Aree di competenza: Cybersecurity, IT Risk Management, Security Advisory, Threat Analysis, Data Protection, Cloud Security, Compliance & Governance