Redazione RHC : 16 Marzo 2024 08:51
Figure ha presentato i primi frutti della sua collaborazione con OpenAI per migliorare la funzionalità dei robot umanoidi. In un nuovo video, il robot Figure 01 dimostra la capacità di condurre una conversazione in tempo reale.
In breve tempo Figure ha ottenuto un notevole successo. L’imprenditore Brett Adcock è emerso dall’ombra proprio l’anno scorso, riunendo persone chiave di Boston Dynamics, Tesla, Google DeepMind e Archer Aviation per creare “il primo robot umanoide universale commercialmente fattibile al mondo”.
Entro ottobre, Figure 01 era operativa e svolgeva attività autonome di base. Entro la fine dell’anno il robot aveva acquisito la capacità di apprendere utilizzando il principio “guarda e impara” e a metà gennaio era pronto per iniziare a lavorare nello stabilimento BMW.
Sei un Esperto di Formazione?
Entra anche tu nel Partner program! Accedi alla sezione riservata ai Creator sulla nostra Academy e scopri i vantaggi riservati ai membri del Partner program.
Contattaci tramite WhatsApp al 375 593 1011 per richiedere ulteriori informazioni oppure scriviti alla casella di posta [email protected]
Supporta RHC attraverso:
Ti piacciono gli articoli di Red Hot Cyber? Non aspettare oltre, iscriviti alla newsletter settimanale per non perdere nessun articolo.
Il mese scorso, Figure ha pubblicato un video di Figure 01 mentre lavora in un magazzino . Quasi subito dopo, l’azienda ha annunciato lo sviluppo di una seconda generazione della macchina e una collaborazione con OpenAI “per sviluppare una nuova generazione di modelli IA per robot umanoidi”. Ora, Figure ha condiviso un video che mostra i primi risultati di questa collaborazione.
Durante un test dimostrativo, un rappresentante della startup ha incaricato il robot di descrivere gli oggetti che aveva di fronte. Figure 01 ha completato il compito senza difficoltà e poi, quando gli è stato chiesto di “offrire qualcosa di commestibile”, ha passato la mela all’interlocutore. Successivamente, il robot ha posizionato con cura tazze e piatti al loro posto. Allo stesso tempo, ha continuato a parlare con la persona, dimostrando movimenti sicuri e precisi.
Secondo Adcock, le telecamere integrate di Figure 01 inseriscono i dati in un ampio modello di intelligenza artificiale in linguaggio visivo addestrato da OpenAI, e anche le reti neurali proprietarie di Figure “acquisiscono immagini attraverso le telecamere del robot a 10 Hz”. Gli algoritmi OpenAI sono responsabili della capacità di comprendere il parlato e la rete neurale Figure converte il flusso di informazioni ricevute in “azioni robot veloci, precise e abili”.
L’imprenditore ha sottolineato che la dimostrazione è avvenuta senza telecomando e che il video è stato girato a velocità reale. “Il nostro obiettivo è insegnare al modello di intelligenza artificiale a controllare i robot umanoidi a livello di miliardi di unità”, ha affermato, indicando ambiziose prospettive di sviluppo.
I ricercatori di Huntress hanno rilevato lo sfruttamento attivo di una vulnerabilità critica in Wing FTP Server, appena un giorno dopo la sua divulgazione pubblica. La vulnerabilità CVE-2025...
Secondo Trellix, il gruppo DoNot APT ha recentemente condotto una campagna di spionaggio informatico in più fasi, prendendo di mira il Ministero degli Affari Esteri italiano. Il gruppo, attribuit...
È stata scoperta una vulnerabilità critica di tipo double free nel modulo pipapo set del sottosistema NFT del kernel Linux. Un aggressore senza privilegi può sfruttare questa vulne...
Negli ultimi mesi, due episodi inquietanti hanno scosso l’opinione pubblica e il settore della sicurezza informatica italiana. Il primo ha riguardato un ospedale italiano, violato nel suo cuore...
In questi giorni, sul noto forum underground exploit.in, attualmente chiuso e accessibile solo su invito – sono stati messi in vendita degli exploit per una vulnerabilità di tipo 0day che ...
Copyright @ REDHOTCYBER Srl
PIVA 17898011006