
Figure ha presentato i primi frutti della sua collaborazione con OpenAI per migliorare la funzionalità dei robot umanoidi. In un nuovo video, il robot Figure 01 dimostra la capacità di condurre una conversazione in tempo reale.
In breve tempo Figure ha ottenuto un notevole successo. L’imprenditore Brett Adcock è emerso dall’ombra proprio l’anno scorso, riunendo persone chiave di Boston Dynamics, Tesla, Google DeepMind e Archer Aviation per creare “il primo robot umanoide universale commercialmente fattibile al mondo”.
Entro ottobre, Figure 01 era operativa e svolgeva attività autonome di base. Entro la fine dell’anno il robot aveva acquisito la capacità di apprendere utilizzando il principio “guarda e impara” e a metà gennaio era pronto per iniziare a lavorare nello stabilimento BMW.
Il mese scorso, Figure ha pubblicato un video di Figure 01 mentre lavora in un magazzino . Quasi subito dopo, l’azienda ha annunciato lo sviluppo di una seconda generazione della macchina e una collaborazione con OpenAI “per sviluppare una nuova generazione di modelli IA per robot umanoidi”. Ora, Figure ha condiviso un video che mostra i primi risultati di questa collaborazione.
Durante un test dimostrativo, un rappresentante della startup ha incaricato il robot di descrivere gli oggetti che aveva di fronte. Figure 01 ha completato il compito senza difficoltà e poi, quando gli è stato chiesto di “offrire qualcosa di commestibile”, ha passato la mela all’interlocutore. Successivamente, il robot ha posizionato con cura tazze e piatti al loro posto. Allo stesso tempo, ha continuato a parlare con la persona, dimostrando movimenti sicuri e precisi.
Secondo Adcock, le telecamere integrate di Figure 01 inseriscono i dati in un ampio modello di intelligenza artificiale in linguaggio visivo addestrato da OpenAI, e anche le reti neurali proprietarie di Figure “acquisiscono immagini attraverso le telecamere del robot a 10 Hz”. Gli algoritmi OpenAI sono responsabili della capacità di comprendere il parlato e la rete neurale Figure converte il flusso di informazioni ricevute in “azioni robot veloci, precise e abili”.
L’imprenditore ha sottolineato che la dimostrazione è avvenuta senza telecomando e che il video è stato girato a velocità reale. “Il nostro obiettivo è insegnare al modello di intelligenza artificiale a controllare i robot umanoidi a livello di miliardi di unità”, ha affermato, indicando ambiziose prospettive di sviluppo.
Ti è piaciuto questo articolo? Ne stiamo discutendo nella nostra Community su LinkedIn, Facebook e Instagram. Seguici anche su Google News, per ricevere aggiornamenti quotidiani sulla sicurezza informatica o Scrivici se desideri segnalarci notizie, approfondimenti o contributi da pubblicare.

Cyber NewsL’Italia è finita ancora una volta nel mirino del collettivo hacktivista filorusso NoName057(16). Dopo i pesanti disservizi che hanno colpito l‘Università La Sapienza e le Gallerie degli Uffizi all’inizio di questa settimana. L’offensiva digitale russa…
Cyber NewsSecondo quanto riportato dal Corriere della Sera, l’attacco informatico che ha paralizzato i sistemi dell’Università La Sapienza non sarebbe motivato da fini politici. Gli hacker avrebbero inviato messaggi di rivendicazione spiegando di non agire per…
CybercrimeNella cyber security, spesso ci si concentra sulla ricerca di complessi bug nel codice sorgente, ignorando che la fiducia dell’utente finale passa per un elemento molto più semplice: un link di download. L’incidente che ha…
Cyber NewsNella giornata di lunedì mattina, un grave incidente informatico ha colpito l’Università La Sapienza di Roma, mettendo fuori uso una parte rilevante dell’infrastruttura digitale dell’ateneo. L’attacco ha avuto effetti immediati sulla didattica e sui servizi…
InnovazioneL’evoluzione delle piattaforme digitali ha raggiunto un punto di rottura dove la presenza umana non è più richiesta per alimentare il dibattito. Moltbook emerge come un esperimento sociale senza precedenti, un ecosistema dove milioni di…