Redazione RHC : 25 Novembre 2023 16:09
Avevamo riportato più volte che l’unione tra robotica e intelligenza artificiale generativa avrebbe portato in dote robot sempre più intelligenti, ma celato anche dei grandi rischi per gli umani. Avevamo anche riportato che la robotica è un passo indietro rispetto alle innovazioni dirompenti dell’IA, ma sembra che già si inizi ad utilizzare i LLM come interfaccia utente per una nuova generazione di robot.
I ricercatori della Brown University hanno affermato di aver sviluppato un software in grado di tradurre istruzioni formulate in modo chiaro in comportamenti che i robot possono eseguire senza bisogno di migliaia di ore di dati di addestramento.
La maggior parte dei software attuali per la navigazione dei robot non può passare in modo affidabile da qualsiasi linguaggio quotidiano al linguaggio matematico che i robot possono comprendere ed eseguire, hanno osservato i ricercatori del Brown’s Humans to Robots Laboratory.
Iscriviti GRATIS ai WorkShop Hands-On della RHC Conference 2025 (Giovedì 8 maggio 2025)
Il giorno giovedì 8 maggio 2025 presso il teatro Italia di Roma (a due passi dalla stazione termini e dalla metro B di Piazza Bologna), si terranno i workshop "hands-on", creati per far avvicinare i ragazzi alla sicurezza informatica e alla tecnologia. Questo anno i workshop saranno:
Supporta RHC attraverso:
Ti piacciono gli articoli di Red Hot Cyber? Non aspettare oltre, iscriviti alla newsletter settimanale per non perdere nessun articolo.
I sistemi software hanno difficoltà ancora maggiori a compiere salti logici basati su direzioni complesse o espressive, hanno affermato.
Per raggiungere questi compiti, i sistemi tradizionali richiedono formazione su migliaia di ore di dati. In questo modo il robot fa quello che dovrebbe fare quando incontra quel particolare tipo di comando. Tuttavia, i recenti progressi nei modelli linguistici di grandi dimensioni (LLM) basati sull’intelligenza artificiale hanno cambiato il modo in cui i robot apprendono.
Questi LLM stanno aperto le porte ai robot per sbloccare nuove abilità di comprensione e ragionamento, ha affermato il team di Brown. I ricercatori si sono detti entusiasti di portare queste capacità fuori dal laboratorio e nel mondo in un esperimento della durata di un anno. Il team ha dettagliato la sua ricerca in un articolo pubblicato di recente.
Il team ha utilizzato modelli linguistici di intelligenza artificiale per creare un metodo che compartimentasse le istruzioni. Questo metodo elimina la necessità di dati di addestramento e consente ai robot di seguire semplici istruzioni verbali verso i luoghi utilizzando solo una mappa.
Inoltre, il software dei laboratori Brown fornisce ai robot di navigazione uno strumento di base in grado di ricevere comandi in linguaggio naturale e generare comportamenti. Il software consente inoltre ai robot di calcolare i salti logici che un robot deve compiere per prendere decisioni basate sia sul contesto delle istruzioni sia su ciò che dicono che il robot può fare e in quale ordine.
“Nel documento, pensavamo in particolare ai robot mobili che si muovono in un ambiente“, ha detto in un comunicato Stefanie Tellex, professoressa di informatica alla Brown e autrice senior del nuovo studio . “Volevamo un modo per collegare le istruzioni inglesi complesse, specifiche e astratte che le persone potrebbero dire a un robot – scendi a Thayer Street e incontriamoci al bar, ma fermati prima in banca.”
Il sistema software creato dal team, chiamato Lang2LTL, funziona scomponendo le istruzioni in pezzi modulari. Quando viene presentata tale istruzione, Lang2LTL estrae prima le due posizioni denominate. Il modello abbina queste posizioni a punti specifici che il modello sa essere nell’ambiente del robot.
Prende questa decisione analizzando i metadati che ha sulle posizioni, come i loro indirizzi o che tipo di negozio sono. Il sistema esaminerà i negozi vicini e poi si concentrerà solo su quelli su Main Street per decidere deve andare.
Successivamente, il modello linguistico termina di tradurre il comando in logica temporale lineare, codici matematici e simboli che possono esprimere questi comandi in un modo comprensibile al robot. Collega le posizioni mappate alla formula che ha creato e fornisce questi comandi al robot.
I ricercatori della Brown hanno testato il sistema in due modi. Innanzitutto, il team di ricerca ha sottoposto il software a simulazioni in 21 città utilizzando OpenStreetMap, un database geografico aperto.
Secondo il team, nell’ambito di queste simulazioni il sistema era accurato nell’80% dei casi. Il team ha anche testato il sistema all’interno del campus di Brown utilizzando il robot Spot della Boston Dynamics.
Negli ultimi giorni, un utente del forum underground “BreachForums” ha pubblicato un annuncio riguardante la presunta vendita di accessi a caselle di posta elettronica appartenenti al Mi...
Negli Stati Uniti è stata individuata una nuova frode: i criminali inviano false richieste di riscatto via posta per conto del gruppo BianLian. Le buste indicano che il mittente è “BI...
I team Managed XDR e Incident Response di Trend Micro hanno recentemente scoperto campagne coordinate dai gruppi ransomware Black Basta e Cactus che utilizzano una variante condivisa del malware BackC...
La società Broadcom ha rilasciato aggiornamenti di sicurezza per risolvere tre vulnerabilità attivamente sfruttate nei prodotti VMware ESXi, Workstation e Fusion che potrebbero causare ...
Il ransomware continua a rappresentare una delle minacce più pervasive e dannose nel panorama della cybersecurity globale. Secondo il report “DarkMirror” di DarkLab, relativo al sec...
Copyright @ REDHOTCYBER Srl
PIVA 17898011006