Redazione RHC : 25 Novembre 2023 16:09
Avevamo riportato più volte che l’unione tra robotica e intelligenza artificiale generativa avrebbe portato in dote robot sempre più intelligenti, ma celato anche dei grandi rischi per gli umani. Avevamo anche riportato che la robotica è un passo indietro rispetto alle innovazioni dirompenti dell’IA, ma sembra che già si inizi ad utilizzare i LLM come interfaccia utente per una nuova generazione di robot.
I ricercatori della Brown University hanno affermato di aver sviluppato un software in grado di tradurre istruzioni formulate in modo chiaro in comportamenti che i robot possono eseguire senza bisogno di migliaia di ore di dati di addestramento.
La maggior parte dei software attuali per la navigazione dei robot non può passare in modo affidabile da qualsiasi linguaggio quotidiano al linguaggio matematico che i robot possono comprendere ed eseguire, hanno osservato i ricercatori del Brown’s Humans to Robots Laboratory.
![]() CALL FOR SPONSOR - Sponsorizza l'ottavo episodio della serie Betti-RHCSei un'azienda innovativa, che crede nella diffusione di concetti attraverso metodi "non convenzionali"? Conosci il nostro corso sul cybersecurity awareness a fumetti? Red Hot Cyber sta ricercando un nuovo sponsor per una nuova puntata del fumetto Betti-RHC mentre il team è impegnato a realizzare 3 nuovi episodi che ci sono stati commissionati. Contattaci tramite WhatsApp al numero 375 593 1011 per richiedere ulteriori informazioni oppure alla casella di posta [email protected]
Se ti piacciono le novità e gli articoli riportati su di Red Hot Cyber, iscriviti immediatamente alla newsletter settimanale per non perdere nessun articolo. La newsletter generalmente viene inviata ai nostri lettori ad inizio settimana, indicativamente di lunedì. |
I sistemi software hanno difficoltà ancora maggiori a compiere salti logici basati su direzioni complesse o espressive, hanno affermato.
Per raggiungere questi compiti, i sistemi tradizionali richiedono formazione su migliaia di ore di dati. In questo modo il robot fa quello che dovrebbe fare quando incontra quel particolare tipo di comando. Tuttavia, i recenti progressi nei modelli linguistici di grandi dimensioni (LLM) basati sull’intelligenza artificiale hanno cambiato il modo in cui i robot apprendono.
Questi LLM stanno aperto le porte ai robot per sbloccare nuove abilità di comprensione e ragionamento, ha affermato il team di Brown. I ricercatori si sono detti entusiasti di portare queste capacità fuori dal laboratorio e nel mondo in un esperimento della durata di un anno. Il team ha dettagliato la sua ricerca in un articolo pubblicato di recente.
Il team ha utilizzato modelli linguistici di intelligenza artificiale per creare un metodo che compartimentasse le istruzioni. Questo metodo elimina la necessità di dati di addestramento e consente ai robot di seguire semplici istruzioni verbali verso i luoghi utilizzando solo una mappa.
Inoltre, il software dei laboratori Brown fornisce ai robot di navigazione uno strumento di base in grado di ricevere comandi in linguaggio naturale e generare comportamenti. Il software consente inoltre ai robot di calcolare i salti logici che un robot deve compiere per prendere decisioni basate sia sul contesto delle istruzioni sia su ciò che dicono che il robot può fare e in quale ordine.
“Nel documento, pensavamo in particolare ai robot mobili che si muovono in un ambiente“, ha detto in un comunicato Stefanie Tellex, professoressa di informatica alla Brown e autrice senior del nuovo studio . “Volevamo un modo per collegare le istruzioni inglesi complesse, specifiche e astratte che le persone potrebbero dire a un robot – scendi a Thayer Street e incontriamoci al bar, ma fermati prima in banca.”
Il sistema software creato dal team, chiamato Lang2LTL, funziona scomponendo le istruzioni in pezzi modulari. Quando viene presentata tale istruzione, Lang2LTL estrae prima le due posizioni denominate. Il modello abbina queste posizioni a punti specifici che il modello sa essere nell’ambiente del robot.
Prende questa decisione analizzando i metadati che ha sulle posizioni, come i loro indirizzi o che tipo di negozio sono. Il sistema esaminerà i negozi vicini e poi si concentrerà solo su quelli su Main Street per decidere deve andare.
Successivamente, il modello linguistico termina di tradurre il comando in logica temporale lineare, codici matematici e simboli che possono esprimere questi comandi in un modo comprensibile al robot. Collega le posizioni mappate alla formula che ha creato e fornisce questi comandi al robot.
I ricercatori della Brown hanno testato il sistema in due modi. Innanzitutto, il team di ricerca ha sottoposto il software a simulazioni in 21 città utilizzando OpenStreetMap, un database geografico aperto.
Secondo il team, nell’ambito di queste simulazioni il sistema era accurato nell’80% dei casi. Il team ha anche testato il sistema all’interno del campus di Brown utilizzando il robot Spot della Boston Dynamics.
Il CERT-AGID ha rilevato una nuova variante del phishing ai danni di PagoPA. La campagna, ancora a tema multe come le precedenti, sfrutta questa volta un meccanismo di open redirect su domini legittim...
Jen-Hsun Huang, fondatore e CEO di Nvidia, ha rivelato che le recenti restrizioni all’esportazione hanno drasticamente ridotto la presenza dei chip AI dell’azienda in Cina, passando dal 95% a una ...
Il Giubileo 2025 a Roma rappresenta una sfida non solo per la gestione di milioni di pellegrini e turisti, ma anche per la protezione dello spazio aereo urbano. I droni, sempre più diffusi e accessib...
Il 15 ottobre 2025 segna un anniversario di eccezionale rilievo nella storia della sicurezza nazionale italiana: cento anni dalla nascita del Servizio Informazioni Militare (SIM), primo servizio di in...
Un nuovo post sul dark web offre l’accesso completo a migliaia di server e database MySQL appartenenti a provider italiani di hosting condiviso. Nelle ultime ore è apparso su un forum underground u...