Redazione RHC : 27 Dicembre 2023 08:08
Di Alter3 ne avevamo parlato recentemente. Si tratta di una versione più recente del robot umanoide introdotto per la prima volta nel 2016.
Un team di ricercatori dell’Università di Tokyo ha utilizzato GPT-4 per guidare il robot attraverso varie simulazioni, come scattare selfie, lanciare una palla, mangiare popcorn e mimare di suonare una chitarra elettrica Metal. Lo riporta TechXplore.
In precedenza, ogni azione richiedeva una codifica speciale, ma l’inclusione di GPT-4 apre nuove possibilità per i robot che apprendono attraverso istruzioni in linguaggio naturale. Il controllo diretto è ora possibile mappando le espressioni linguistiche delle azioni umane utilizzando il codice software, spiegano gli scienziati. Hanno chiamato questo risultato un “cambiamento di paradigma”.
Sei un Esperto di Formazione?
Entra anche tu nel Partner program!
Accedi alla sezione riservata ai Creator sulla nostra Academy e scopri i vantaggi riservati ai membri del Partner program.
Per ulteriori informazioni, scrivici ad [email protected] oppure su Whatsapp al 379 163 8765
Supporta RHC attraverso:
Ti piacciono gli articoli di Red Hot Cyber? Non aspettare oltre, iscriviti alla newsletter settimanale per non perdere nessun articolo.
In grado di eseguire movimenti complessi della parte superiore del corpo, comprese espressioni facciali dettagliate, Alter3 ha 43 assi che imitano il sistema muscolo-scheletrico umano. Sta su un supporto, ma non può camminare (anche se può imitare il cammino).
Codificare la coordinazione di un numero così elevato di articolazioni è stato un compito arduo che comportava movimenti ripetitivi. Grazie al modello linguistico (LLM) tutto sembra essere cambiato.
Gli scienziati ora possono semplicemente fornire istruzioni verbali che descrivono i movimenti desiderati e fornire suggerimenti per il LLM. Il modello linguistico a sua volta genera codice Python che esegue il motore Android.
Alter3 ricorda le azioni in modo che i ricercatori possano perfezionarle e regolarle, ottenendo movimenti più rapidi, fluidi e precisi nel tempo.
Gli autori forniscono un esempio di istruzioni in linguaggio naturale fornite da Alter3 per scattare un selfie:
I ricercatori non hanno perso l’occasione di prendersi gioco del robot. In uno scenario, il robot finge di mangiare un sacchetto di popcorn e poi apprende che il popcorn appartiene alla persona seduta accanto ad esso. Le espressioni facciali e i gesti esagerati delle mani trasmettono sorpresa e imbarazzo.
Dotato di una telecamera, Alter3 può “vedere” le persone. I ricercatori hanno scoperto che Alter3 affina il suo comportamento osservando le reazioni di una persona. Hanno paragonato questo apprendimento all’imitazione neonatale che i comportamentisti infantili osservano nei neonati.
Negli ultimi giorni, il collettivo hacktivista italiano Anonymous Italia ha risposto agli attacchi informatici sferrati dal gruppo filorusso NoName057(16) colpendo una serie di obiettivi russi. Gli at...
Gruppo di ricerca MASSGRAVE ha presentato un Exploit chiamato TSforge che consente di attivare qualsiasi versione di Windows a partire da Windows 7, nonché tutte le edizioni di Microsof...
Su BreachForum un utente dallo pseudonimo EDRVendor ha venduto, dopo poche ore dall’annuncio, l’accesso ad una cassetta postale della polizia di stato italiana. Oltre alla mail viene off...
Team di intelligence sulle minacce di Google ha reso pubblica l’informazione sul gruppo di hacker Triplestrength, finora sconosciuto, attivo dal 2020. Il gruppo è composto da poc...
I canali Telegram degli hacker filorussi di NoName057(16) sono stati eliminati da telegram. Ma subito gli attivisti ricreano nuovi canali marchiati con il suffisso “reborn“. Ma...
Copyright @ 2003 – 2024 REDHOTCYBER Srl
PIVA 17898011006