Redazione RHC : 25 Novembre 2023 16:09
Avevamo riportato più volte che l’unione tra robotica e intelligenza artificiale generativa avrebbe portato in dote robot sempre più intelligenti, ma celato anche dei grandi rischi per gli umani. Avevamo anche riportato che la robotica è un passo indietro rispetto alle innovazioni dirompenti dell’IA, ma sembra che già si inizi ad utilizzare i LLM come interfaccia utente per una nuova generazione di robot.
I ricercatori della Brown University hanno affermato di aver sviluppato un software in grado di tradurre istruzioni formulate in modo chiaro in comportamenti che i robot possono eseguire senza bisogno di migliaia di ore di dati di addestramento.
La maggior parte dei software attuali per la navigazione dei robot non può passare in modo affidabile da qualsiasi linguaggio quotidiano al linguaggio matematico che i robot possono comprendere ed eseguire, hanno osservato i ricercatori del Brown’s Humans to Robots Laboratory.
Vuoi diventare un Ethical Hacker?
Non perdere i nostri corsi e scrivi subito su WhatsApp al numero
375 593 1011
per richiedere informazioni dicendo che hai trovato il numero sulle pagine di Red Hot Cyber
Supporta RHC attraverso:
Ti piacciono gli articoli di Red Hot Cyber? Non aspettare oltre, iscriviti alla newsletter settimanale per non perdere nessun articolo.
I sistemi software hanno difficoltà ancora maggiori a compiere salti logici basati su direzioni complesse o espressive, hanno affermato.
Per raggiungere questi compiti, i sistemi tradizionali richiedono formazione su migliaia di ore di dati. In questo modo il robot fa quello che dovrebbe fare quando incontra quel particolare tipo di comando. Tuttavia, i recenti progressi nei modelli linguistici di grandi dimensioni (LLM) basati sull’intelligenza artificiale hanno cambiato il modo in cui i robot apprendono.
Questi LLM stanno aperto le porte ai robot per sbloccare nuove abilità di comprensione e ragionamento, ha affermato il team di Brown. I ricercatori si sono detti entusiasti di portare queste capacità fuori dal laboratorio e nel mondo in un esperimento della durata di un anno. Il team ha dettagliato la sua ricerca in un articolo pubblicato di recente.
Il team ha utilizzato modelli linguistici di intelligenza artificiale per creare un metodo che compartimentasse le istruzioni. Questo metodo elimina la necessità di dati di addestramento e consente ai robot di seguire semplici istruzioni verbali verso i luoghi utilizzando solo una mappa.
Inoltre, il software dei laboratori Brown fornisce ai robot di navigazione uno strumento di base in grado di ricevere comandi in linguaggio naturale e generare comportamenti. Il software consente inoltre ai robot di calcolare i salti logici che un robot deve compiere per prendere decisioni basate sia sul contesto delle istruzioni sia su ciò che dicono che il robot può fare e in quale ordine.
“Nel documento, pensavamo in particolare ai robot mobili che si muovono in un ambiente“, ha detto in un comunicato Stefanie Tellex, professoressa di informatica alla Brown e autrice senior del nuovo studio . “Volevamo un modo per collegare le istruzioni inglesi complesse, specifiche e astratte che le persone potrebbero dire a un robot – scendi a Thayer Street e incontriamoci al bar, ma fermati prima in banca.”
Il sistema software creato dal team, chiamato Lang2LTL, funziona scomponendo le istruzioni in pezzi modulari. Quando viene presentata tale istruzione, Lang2LTL estrae prima le due posizioni denominate. Il modello abbina queste posizioni a punti specifici che il modello sa essere nell’ambiente del robot.
Prende questa decisione analizzando i metadati che ha sulle posizioni, come i loro indirizzi o che tipo di negozio sono. Il sistema esaminerà i negozi vicini e poi si concentrerà solo su quelli su Main Street per decidere deve andare.
Successivamente, il modello linguistico termina di tradurre il comando in logica temporale lineare, codici matematici e simboli che possono esprimere questi comandi in un modo comprensibile al robot. Collega le posizioni mappate alla formula che ha creato e fornisce questi comandi al robot.
I ricercatori della Brown hanno testato il sistema in due modi. Innanzitutto, il team di ricerca ha sottoposto il software a simulazioni in 21 città utilizzando OpenStreetMap, un database geografico aperto.
Secondo il team, nell’ambito di queste simulazioni il sistema era accurato nell’80% dei casi. Il team ha anche testato il sistema all’interno del campus di Brown utilizzando il robot Spot della Boston Dynamics.
Copyright @ 2003 – 2024 RED HOT CYBER
PIVA 16821691009