Humanoid ha presentato un sistema di controllo robotico che funge da centro decisionale unico per un’intera flotta di macchine. La piattaforma, chiamata KinetIQ, controlla dispositivi di vario design e con diverse funzioni, dai carrelli da magazzino agli umanoidi bipedi, e distribuisce il lavoro tra loro in ambienti industriali e domestici.
La nuova tecnologia è stata dimostrata in un video che mostra diversi robot che eseguono simultaneamente un compito complesso assegnato da un essere umano. Gli androidi su ruote raccolgono gli ordini della spesa, trasportano i contenitori e li imballano. Un umanoide bipede comunica verbalmente, raccoglie gli oggetti e aiuta con le merci. Tutti operano non in modo indipendente, ma sotto il controllo di un sistema comune che assegna i ruoli e monitora i risultati.
Invece di configurare individualmente ogni macchina, la piattaforma riceve un obiettivo, lo suddivide in fasi e monitora i progressi dell’intera flotta. Se un robot non è adatto a un compito specifico o non riesce a completarlo, il compito viene trasferito a un altro.
I robot su ruote e gli umanoidi bipedi operano sullo stesso modello di intelligenza artificiale , sebbene i loro metodi di locomozione e di presa degli oggetti differiscano. I dati e l’esperienza acquisiti da un tipo di robot vengono utilizzati per migliorare le prestazioni degli altri. Ciò che un androide apprende in un magazzino aiuta in seguito i robot nella manutenzione e nelle attività quotidiane. Questo elimina la necessità di addestrare ciascun modello separatamente da zero.
L’architettura KinetIQ è suddivisa in quattro livelli , che operano simultaneamente ma con frequenze di aggiornamento diverse. Il livello superiore gestisce l’intera flotta simultaneamente. Stabilisce le priorità, assegna le attività e monitora il carico di lavoro complessivo. Può essere collegato a software di gestione di magazzino o di punto vendita.
Il livello successivo è responsabile del comportamento di un robot specifico. Suddivide il compito assegnato in fasi, elabora i comandi, analizza le immagini della telecamera e modifica il piano se le condizioni ambientali cambiano. Non esiste una sequenza rigida di azioni: il robot si adatta alla situazione.
Ancora più in basso si trova il livello che genera i movimenti stessi. Un modello di linguaggio visivo e azione collega i dati della telecamera, le istruzioni testuali e i comandi di azione. Calcola esattamente con quale movimento il braccio o il corpo robotico devono essere mossi per raccogliere un oggetto, posizionarlo o raggiungere la posizione desiderata. I comandi vengono ricalcolati più volte al secondo.
Il livello inferiore controlla direttamente gli attuatori e i giunti. È responsabile dell’equilibrio, della fluidità e della stabilità, rispondendo immediatamente ai cambiamenti e adattando il movimento man mano che procede. Se il robot non è in grado di completare un’attività, il sistema può richiedere l’intervento umano. L’operatore può intervenire durante la fase di pianificazione o assumere il controllo diretto del movimento.
Humanoid spera che un sistema intelligente unificato per l’intera flotta contribuisca ad accelerare la transizione dalle dimostrazioni all’uso pratico continuo.
Ti è piaciuto questo articolo? Ne stiamo discutendo nella nostra Community su LinkedIn, Facebook e Instagram. Seguici anche su Google News, per ricevere aggiornamenti quotidiani sulla sicurezza informatica o Scrivici se desideri segnalarci notizie, approfondimenti o contributi da pubblicare.
