Redazione RHC : 16 Marzo 2024 08:51
Figure ha presentato i primi frutti della sua collaborazione con OpenAI per migliorare la funzionalità dei robot umanoidi. In un nuovo video, il robot Figure 01 dimostra la capacità di condurre una conversazione in tempo reale.
In breve tempo Figure ha ottenuto un notevole successo. L’imprenditore Brett Adcock è emerso dall’ombra proprio l’anno scorso, riunendo persone chiave di Boston Dynamics, Tesla, Google DeepMind e Archer Aviation per creare “il primo robot umanoide universale commercialmente fattibile al mondo”.
Entro ottobre, Figure 01 era operativa e svolgeva attività autonome di base. Entro la fine dell’anno il robot aveva acquisito la capacità di apprendere utilizzando il principio “guarda e impara” e a metà gennaio era pronto per iniziare a lavorare nello stabilimento BMW.
Iscriviti GRATIS ai WorkShop Hands-On della RHC Conference 2025 (Giovedì 8 maggio 2025)
Il giorno giovedì 8 maggio 2025 presso il teatro Italia di Roma (a due passi dalla stazione termini e dalla metro B di Piazza Bologna), si terranno i workshop "hands-on", creati per far avvicinare i ragazzi (o persone di qualsiasi età) alla sicurezza informatica e alla tecnologia. Questo anno i workshop saranno:
Supporta RHC attraverso:
Ti piacciono gli articoli di Red Hot Cyber? Non aspettare oltre, iscriviti alla newsletter settimanale per non perdere nessun articolo.
Il mese scorso, Figure ha pubblicato un video di Figure 01 mentre lavora in un magazzino . Quasi subito dopo, l’azienda ha annunciato lo sviluppo di una seconda generazione della macchina e una collaborazione con OpenAI “per sviluppare una nuova generazione di modelli IA per robot umanoidi”. Ora, Figure ha condiviso un video che mostra i primi risultati di questa collaborazione.
Durante un test dimostrativo, un rappresentante della startup ha incaricato il robot di descrivere gli oggetti che aveva di fronte. Figure 01 ha completato il compito senza difficoltà e poi, quando gli è stato chiesto di “offrire qualcosa di commestibile”, ha passato la mela all’interlocutore. Successivamente, il robot ha posizionato con cura tazze e piatti al loro posto. Allo stesso tempo, ha continuato a parlare con la persona, dimostrando movimenti sicuri e precisi.
Secondo Adcock, le telecamere integrate di Figure 01 inseriscono i dati in un ampio modello di intelligenza artificiale in linguaggio visivo addestrato da OpenAI, e anche le reti neurali proprietarie di Figure “acquisiscono immagini attraverso le telecamere del robot a 10 Hz”. Gli algoritmi OpenAI sono responsabili della capacità di comprendere il parlato e la rete neurale Figure converte il flusso di informazioni ricevute in “azioni robot veloci, precise e abili”.
L’imprenditore ha sottolineato che la dimostrazione è avvenuta senza telecomando e che il video è stato girato a velocità reale. “Il nostro obiettivo è insegnare al modello di intelligenza artificiale a controllare i robot umanoidi a livello di miliardi di unità”, ha affermato, indicando ambiziose prospettive di sviluppo.
Il 16 aprile 2025, Spotify ha subito un’interruzione del servizio che ha colpito numerosi utenti in Italia e nel mondo. A partire dalle ore 14:00, migliaia di segnalazioni sono state re...
Fourlis Group, il gestore dei negozi IKEA in Grecia, Cipro, Romania e Bulgaria, ha dichiarato di aver subito un attacco ransomware prima del Black Friday del 27 novembre 2024, che ha causato...
Noi di Red Hot Cyber lo diciamo da tempo: affidarsi esclusivamente a infrastrutture critiche gestite da enti statunitensi è un rischio per l’autonomia strategica europea. È anni che s...
A partire da poco dopo la mezzanotte del 15 aprile 2025, BreachForums – uno dei principali forum underground – risulta offline sia nella sua versione clearnet che nella controparte su re...
Un utente anonimo ha pubblicato nel forum underground chiuso Exploit un annuncio che ha subito attirato l’attenzione della comunità di cybersecurity: la vendita di un exploit zero-day...
Copyright @ REDHOTCYBER Srl
PIVA 17898011006