Un nuovo cane robot sviluppato dall’Università di Binghamton utilizza GPT-4 e controllo vocale per assistere i non vedenti. Il sistema non si limita solamente a guidare, ma spiega ai non vedenti i percorsi e descrive l’ambiente in tempo reale. Testato con utenti reali, ha dimostrato più efficacia con l’interazione verbale. La tecnologia segna un passo avanti nella robotica assistiva, con potenziali applicazioni nella mobilità quotidiana.
Mentre si parla di sistemi come Maven/Palantir, che consente una automazione delle operazioni di guerra riducendole a secondi, l’intelligenza artificiale viene in nostro aiuto anche su altri fronti, e nello specifico come supporto per i non vedenti.
L’Università di Binghamton ha presentato recentemente, una nuova versione di un cane guida robotico che non si limita solamente a condurre una persona lungo un percorso, ma interagisce anche con lei durante il tragitto. Il sistema utilizza modelli linguistici avanzati e l’interazione vocale per spiegare le indicazioni, segnalare gli ostacoli e rispondere ai comandi dell’utente. L’obiettivo è trasformare la navigazione da una serie di segnali meccanici in un dialogo più comprensibile e coinvolgente.
Lo sviluppo è nato da esperimenti precedenti, in cui il cane robot rispondeva principalmente a segnali fisici come lo strattone al guinzaglio. Ora, l’utente può indicare verbalmente la destinazione desiderata e il robot suggerirà percorsi alternativi, spiegherà l’itinerario e lo guiderà lungo il tragitto con indicazioni verbali.
Gli autori dello studio si basano su due funzioni. La prima spiega il percorso prima che l’utente parta. Prima della partenza, il sistema illustra i percorsi per raggiungere la destinazione e il tempo di percorrenza approssimativo.
La seconda funzione invece, si attiva durante la navigazione. Il robot commenta l’ambiente circostante in tempo reale, descrive i vari corridoi, i cambiamenti spaziali e segnala eventuali ostacoli. Questo supporto è particolarmente importante per i non vedenti e gli ipovedenti, perché senza la vista la comprensione della scena e dell’ambiente circostante è notevolmente limitata.
In sostanza, gli sviluppatori stanno cercando di dotare il robot di qualcosa che manca a un tipico cane guida biologico. Mentre un animale può guidare bene il suo padrone e comprendere un insieme limitato di comandi, non spiega perché sceglie un determinato percorso, cosa lo circonda o quanta strada deve ancora percorrere. Un sistema robotico potenziato con GPT-4 e controllo vocale acquisisce capacità linguistiche molto più avanzate.
Per testare il funzionamento pratico di questo formato, i ricercatori hanno reclutato sette partecipanti legalmente non vedenti. A questi è stato chiesto di orientarsi all’interno di un grande edificio per uffici. Inizialmente, il robot a chiesto loro dove dovessero andare, quindi ha annunciato i percorsi disponibili. Una volta selezionato il percorso, il sistema ha guidato l’utente passo dopo passo, fornendo informazioni sull’ambiente e l’avviso di eventuali ostacoli, fino al raggiungimento della destinazione.
Dopo la fase di test, ai partecipanti è stato chiesto di valutare il sistema in termini di usabilità e utilità. Secondo le loro risposte fornite, l’approccio combinato, in cui l’utente riceve prima una spiegazione del percorso e poi commenti lungo il tragitto, ha ottenuto i risultati migliori.
Gli sviluppatori prevedono che la fase successiva di implementazione preveda un aumento dell’autonomia e l’espansione del sistema oltre gli ambienti interni. Attualmente, il sistema è stato testato in un ufficio chiuso, ma in futuro il team è interessato a spazi più complessi e percorsi molto più lunghi.
L’obiettivo è sviluppare la tecnologia in uno strumento pratico di assistenza quotidiana in grado di supportare la mobilità e, al contempo, di comunicare efficacemente con l’utente.
Il lavoro è stato presentato alla conferenza AAAI sull’intelligenza artificiale. Le reazioni dei ricercatori ai partecipanti al test hanno rivelato non solo curiosità per l’insolito robot, ma anche un chiaro interesse a vedere tale tecnologia effettivamente implementata nella vita reale.