Stefano Gazzella : 8 Settembre 2022 08:00
Hai mai visto una piccola gazzella imparare a camminare? Un cerbiatto con le gambe lunghe il quale si alza in piedi, cade, si alza e cade di nuovo.
Alla fine, rimane abbastanza a lungo ad agitare le sue gambe simili a stuzzicadenti in una serie di cadute. Sorprendentemente, dopo pochi minuti il cerbiatto saltella come un vecchio professionista.
Bene, ora abbiamo una versione robotica di questa classica scena da “il re leone”.
Vorresti toccare con mano la Cybersecurity e la tecnologia? Iscriviti GRATIS ai WorkShop Hands-On della RHC Conference 2025 (Giovedì 8 maggio 2025)
Se sei un ragazzo delle scuole medie, superiori o frequenti l'università, oppure banalmente un curioso di qualsiasi età, il giorno giovedì 8 maggio 2025 presso il teatro Italia di Roma (a due passi dalla stazione termini e dalla metro B di Piazza Bologna), si terranno i workshop "hands-on", creati per far avvicinare i ragazzi alla sicurezza informatica e alla tecnologia. Questo anno i workshop saranno:
Supporta RHC attraverso:
Ti piacciono gli articoli di Red Hot Cyber? Non aspettare oltre, iscriviti alla newsletter settimanale per non perdere nessun articolo.
Il cerbiatto in questo caso è un cane robot dell’Università della California, a Berkeley.
Ed è anche uno studente sorprendentemente veloce (rispetto al resto dei robot). Il robot è anche speciale perché, a differenza di altri robot più appariscenti che potresti aver visto online, usa l’intelligenza artificiale per imparare a camminare.
Comincia a muovere i suo primi passi utilizzando la schiena, le gambe che ondeggiano, il robot impara a capovolgersi, alzarsi e camminare in un’ora.
Altri dieci minuti di molestie con un rotolo di cartone sono sufficienti per insegnargli come resistere e riprendersi dall’essere spinto dai suoi creatori.
Non è la prima volta che un robot usa l’intelligenza artificiale per imparare a camminare, sia chiaro. Ma mentre i robot precedenti hanno appreso l’abilità per tentativi ed errori su innumerevoli iterazioni, il robot di Berkeley ha imparato a camminare e interagire nel mondo reale in poco tempo.
In un articolo pubblicato recentemente, i ricercatori, Danijar Hafner, Alejandro Escontrela e Philipp Wu, affermano che trasferire gli algoritmi che hanno preparato per questa simulazione non è affatto semplice. Piccoli dettagli e differenze tra il mondo reale e la simulazione possono far inciampare robot alle prime armi. D’altra parte, l’addestramento degli algoritmi nel mondo reale non è pratico: ci vorrebbe troppo tempo e pazienza.
Quattro anni fa, ad esempio, OpenAI ha mostrato una mano robotica gestita da una intelligenza artificiale in grado di manipolare un cubo.
L’algoritmo di controllo, Dactyl, necessita di circa 100 anni di esperienza in una simulazione basata su 6.144 CPU e 8 GPU Nvidia V100 per svolgere questo compito relativamente semplice.
Da allora le cose sono progredite, ma il problema rimane lì in gran parte. Gli algoritmi di apprendimento di rinforzo puro richiedono troppi tentativi ed errori per apprendere le abilità per potersi allenare nel mondo reale. In poche parole, i tempi di computazione sono alti e il processo di apprendimento deluderebbe ricercatori e robot prima di compiere progressi significativi.
Il team di Berkeley ha deciso di risolvere questo problema con un algoritmo chiamato Dreamer.
Costruendo quello che viene chiamato “world model”.
Dreamer può quindi proiettare la probabilità che un’azione futura raggiunga il suo obiettivo. Con l’esperienza, l’accuratezza delle sue proiezioni migliora. Filtrando in anticipo le azioni meno riuscite, il modello consente al robot di capire in modo più efficiente cosa funziona e cosa no.
“L’apprendimento tramite world model consente di migliorare si dall’esperienza passata ma consente anche ai robot di immaginare i risultati futuri di potenziali azioni, riducendo la quantità di tentativi ed errori nell’ambiente reale necessari per apprendere comportamenti di successo”
scrivono i ricercatori.
“Predicendo i risultati futuri, i world model consentono la pianificazione e l’apprendimento del comportamento con solo piccole quantità di interazione nel mondo reale”.
In altre parole, un world model può ridurre l’equivalente di anni di tempo di addestramento in una simulazione a non più di un’ora, come in questo caso.
L’approccio potrebbe avere una rilevanza più ampia anche rispetto ai cani robot.
Il team ha anche applicato Dreamer a un braccio robotico pick-and-place e a un robot con ruote. In entrambi i casi, hanno scoperto che Dreamer permetteva ai loro robot di apprendere in modo efficiente le abilità rilevanti, senza bisogno di tempo per la simulazione.
Applicazioni future più ambiziose potrebbero includere le auto a guida autonoma e altri tipi di intelligenza artificiale.
Una nuova campagna di phishing sta circolando in queste ore con un obiettivo ben preciso: spaventare le vittime con la minaccia di una multa stradale imminente e gonfiata, apparentemente proveniente d...
Negli ultimi giorni, NS Power, una delle principali aziende elettriche canadesi, ha confermato di essere stata vittima di un attacco informatico e ha pubblicato degli update all’interno della H...
1° Maggio, un giorno per onorare chi lavora, chi lotta per farlo in modo dignitoso e chi, troppo spesso, perde la vita mentre svolge la propria mansione. Nel 2025, l’Italia continua a pian...
Domani celebreremo uno degli elementi più iconici – e al tempo stesso vulnerabili – della nostra vita digitale: la password. Da semplice chiave d’accesso inventata negli anni...
Ci sono luoghi nel web dove la normalità cede il passo all’illecito, dove l’apparenza di un marketplace moderno e funzionale si trasforma in una vetrina globale per ogni tipo di rea...
Copyright @ REDHOTCYBER Srl
PIVA 17898011006