Humanoid ha presentato un sistema di controllo robotico che funge da centro decisionale unico per un’intera flotta di macchine. La piattaforma, chiamata KinetIQ, controlla dispositivi di vario design e con diverse funzioni, dai carrelli da magazzino agli umanoidi bipedi, e distribuisce il lavoro tra loro in ambienti industriali e domestici.
La nuova tecnologia è stata dimostrata in un video che mostra diversi robot che eseguono simultaneamente un compito complesso assegnato da un essere umano. Gli androidi su ruote raccolgono gli ordini della spesa, trasportano i contenitori e li imballano. Un umanoide bipede comunica verbalmente, raccoglie gli oggetti e aiuta con le merci. Tutti operano non in modo indipendente, ma sotto il controllo di un sistema comune che assegna i ruoli e monitora i risultati.
Invece di configurare individualmente ogni macchina, la piattaforma riceve un obiettivo, lo suddivide in fasi e monitora i progressi dell’intera flotta. Se un robot non è adatto a un compito specifico o non riesce a completarlo, il compito viene trasferito a un altro.
I robot su ruote e gli umanoidi bipedi operano sullo stesso modello di intelligenza artificiale , sebbene i loro metodi di locomozione e di presa degli oggetti differiscano. I dati e l’esperienza acquisiti da un tipo di robot vengono utilizzati per migliorare le prestazioni degli altri. Ciò che un androide apprende in un magazzino aiuta in seguito i robot nella manutenzione e nelle attività quotidiane. Questo elimina la necessità di addestrare ciascun modello separatamente da zero.
L’architettura KinetIQ è suddivisa in quattro livelli , che operano simultaneamente ma con frequenze di aggiornamento diverse. Il livello superiore gestisce l’intera flotta simultaneamente. Stabilisce le priorità, assegna le attività e monitora il carico di lavoro complessivo. Può essere collegato a software di gestione di magazzino o di punto vendita.
Il livello successivo è responsabile del comportamento di un robot specifico. Suddivide il compito assegnato in fasi, elabora i comandi, analizza le immagini della telecamera e modifica il piano se le condizioni ambientali cambiano. Non esiste una sequenza rigida di azioni: il robot si adatta alla situazione.
Ancora più in basso si trova il livello che genera i movimenti stessi. Un modello di linguaggio visivo e azione collega i dati della telecamera, le istruzioni testuali e i comandi di azione. Calcola esattamente con quale movimento il braccio o il corpo robotico devono essere mossi per raccogliere un oggetto, posizionarlo o raggiungere la posizione desiderata. I comandi vengono ricalcolati più volte al secondo.
Il livello inferiore controlla direttamente gli attuatori e i giunti. È responsabile dell’equilibrio, della fluidità e della stabilità, rispondendo immediatamente ai cambiamenti e adattando il movimento man mano che procede. Se il robot non è in grado di completare un’attività, il sistema può richiedere l’intervento umano. L’operatore può intervenire durante la fase di pianificazione o assumere il controllo diretto del movimento.
Humanoid spera che un sistema intelligente unificato per l’intera flotta contribuisca ad accelerare la transizione dalle dimostrazioni all’uso pratico continuo.
La Redazione di Red Hot Cyber fornisce aggiornamenti quotidiani su
bug,
data breach e
minacce globali. Ogni contenuto è validato dalla nostra community di esperti come
Pietro Melillo,
Massimiliano Brolli,
Sandro Sana,
Olivia Terragni e
Stefano Gazzella.
Grazie alla sinergia con i nostri
Partner leader nel settore (tra cui
Accenture,
CrowdStrike,
Trend Micro e
Fortinet), trasformiamo la complessità tecnica in consapevolezza collettiva, garantendo un'informazione accurata basata sull'analisi di fonti primarie e su una rigorosa
peer-review tecnica.