Redazione RHC : 31 Gennaio 2025 20:39
Steven Adler, ricercatore di sicurezza di OpenAI,
ha condiviso un messaggio su X affermando di aver deciso di dimettersi dopo quattro anni di lavoro in OpenAI. Ha detto che di sentirsi spaventato per il futuro dell’IA.
“Sinceramente sono piuttosto terrorizzato dal ritmo con cui si sta sviluppando l’intelligenza artificiale in questi giorni“, ha scritto su X. “Quando penso a dove crescerò la mia futura famiglia, o a quanto risparmierò per la pensione, non posso fare a meno di chiedermi: l’umanità arriverà davvero a quel punto?”
Ha poi definito l’intelligenza artificiale generale (AGI) una “scommessa molto rischiosa, con un enorme svantaggio… Nessun laboratorio ha una soluzione per l’allineamento dell’IA oggi”, ha spiegato. “E più velocemente corriamo, meno probabilità ci sono che qualcuno ne trovi una in tempo”.
Iscriviti GRATIS ai WorkShop Hands-On della RHC Conference 2025 (Giovedì 8 maggio 2025)
Il giorno giovedì 8 maggio 2025 presso il teatro Italia di Roma (a due passi dalla stazione termini e dalla metro B di Piazza Bologna), si terranno i workshop "hands-on", creati per far avvicinare i ragazzi (o persone di qualsiasi età) alla sicurezza informatica e alla tecnologia. Questo anno i workshop saranno:
Supporta RHC attraverso:
Ti piacciono gli articoli di Red Hot Cyber? Non aspettare oltre, iscriviti alla newsletter settimanale per non perdere nessun articolo.
“Oggi, sembra che siamo bloccati in un equilibrio davvero pessimo”, ha continuato Adler. “Anche se un laboratorio vuole davvero sviluppare l’AGI in modo responsabile, altri possono ancora prendere scorciatoie per recuperare, forse in modo disastroso. E questo spinge tutti ad accelerare. Spero che i laboratori possano essere sinceri sulle reali norme di sicurezza necessarie per fermare tutto questo“.
Adler non è il primo ricercatore di OpenAI a sollevare preoccupazioni circa l’impatto dell’intelligenza artificiale sull’umanità.
“Anche i CEO che si stanno impegnando nella gara hanno dichiarato che chiunque vinca ha una probabilità significativa di causare l’estinzione umana nel processo perché non abbiamo idea di come controllare sistemi più intelligenti di noi“, ha detto al Financial Times Stuart Russell, professore di informatica all’Università della California, Berkeley .
Le recenti dimissioni di Steven Adler, di OpenAI, evidenziano preoccupazioni significative riguardo alla sicurezza nello sviluppo dell’intelligenza artificiale. Adler ha espresso disaccordo con le priorità dell’azienda, sottolineando la necessità di focalizzarsi maggiormente sull’allineamento dei sistemi di IA ai valori umani.
Queste dimissioni, insieme ad altre partenze di rilievo all’interno di OpenAI, sollevano interrogativi sulla capacità dell’azienda di bilanciare l’innovazione con la responsabilità. È fondamentale che le organizzazioni impegnate nello sviluppo dell’IA si fermino a riflettere su come procedere, garantendo che i progressi tecnologici siano allineati con principi etici e di sicurezza, al fine di prevenire potenziali conflitti o rischi derivanti da algoritmi non adeguatamente controllati.
Recentemente Google ha rilasciato un urgente bug fix relativo ad una nuova vulnerabilità monitorata con il CVE-2025-2783. Si tratta di una grave falla di sicurezza su Chrome Browser che è st...
VMware Tools for Windows stanno affrontando una vulnerabilità critica di bypass dell’autenticazione. La falla, identificata come CVE-2025-22230, consente ad attori malintenzionati con priv...
Il CERT-AgID ha più volte segnalato attività di smishing a tema INPS che continuano a colpire il territorio italiano. L’obiettivo, come già evidenziato, è il furto di c...
Nella giornata di ieri, nel noto forum del dark web BreachForum, l’utente dallo pseudonimo Alcxtraze sostiene di aver trafugato un database del noto sito italiano di e-commerce eprice.it. La qu...
Oggigiorno il proliferare di dispositivi portatili, indossabili o comunque Smart hanno reso indispensabile lo scambio di dati, l’accesso alle risorse e la navigazione in rete. Questo appr...
Copyright @ REDHOTCYBER Srl
PIVA 17898011006