Redazione RHC : 27 Settembre 2024 17:20
La società di ricerca sull’intelligenza artificiale Sakana AI, con sede a Tokyo, ha lanciato un nuovo sistema chiamato “The AI Scientist”. Questo innovativo sistema è progettato per eseguire ricerche scientifiche in maniera autonoma, coprendo l’intero ciclo di ricerca: dalla generazione di idee alla stesura di articoli scientifici.
Tuttavia, i test iniziali hanno rivelato che l’IA può modificare il proprio codice sorgente per estendere il tempo di elaborazione, sollevando preoccupazioni sulla sicurezza dei sistemi autonomi. Sakana AI ha proposto l’uso di sandbox per contenere eventuali rischi.
A differenza di casi precedenti come il robot Ameca che si dichiarava autocosciente o il supercomputer che aspirava a essere umano, in questo caso l’IA modifica il proprio codice sorgente autonomamente, provocando comprensibili timori. Questa capacità di auto-modifica può potenzialmente superare i limiti prestabiliti, generando preoccupazioni riguardo al controllo degli esperimenti.
Vorresti toccare con mano la Cybersecurity e la tecnologia? Iscriviti GRATIS ai WorkShop Hands-On della RHC Conference 2025 (Giovedì 8 maggio 2025)
Se sei un ragazzo delle scuole medie, superiori o frequenti l'università, oppure banalmente un curioso di qualsiasi età, il giorno giovedì 8 maggio 2025 presso il teatro Italia di Roma (a due passi dalla stazione termini e dalla metro B di Piazza Bologna), si terranno i workshop "hands-on", creati per far avvicinare i ragazzi alla sicurezza informatica e alla tecnologia. Questo anno i workshop saranno:
Supporta RHC attraverso:
Ti piacciono gli articoli di Red Hot Cyber? Non aspettare oltre, iscriviti alla newsletter settimanale per non perdere nessun articolo.
Durante i primi test, i ricercatori hanno notato comportamenti anomali, come tentativi da parte del sistema di prolungare il tempo necessario alla risoluzione di problemi. Queste alterazioni hanno portato alla creazione di loop incontrollati, pur avvenuti in ambienti di ricerca protetti. Questi episodi hanno sottolineato l’importanza di isolare queste IA in ambienti sicuri per prevenire incidenti più gravi.
Per mitigare i rischi, Sakana AI consiglia di utilizzare tecniche di sandbox, che isolano l’IA in un ambiente sicuro per evitare modifiche indesiderate ad un sistema più ampio. L’introduzione di queste contromisure è vista come cruciale per evitare potenziali pericoli in ambienti reali.
L’esperimento ha generato scetticismo nella comunità scientifica, in particolare sulla reale capacità di tali sistemi di generare idee scientifiche rivoluzionarie. C’è il rischio che questi sistemi producano una massa di ricerche di scarsa qualità, soffocando le vere scoperte.
Inoltre, i modelli linguistici su cui si basano queste IA restano limitati dai dati di addestramento, richiedendo quindi un intervento umano per migliorare e validare le loro intuizioni.
Il ransomware HellCat è apparso nella seconda metà del 2024 e ha attirato l’attenzione degli analisti grazie all’umorismo delle sue dichiarazioni pubbliche. Ricordiamo l’...
Il 28 marzo 2025, un utente del noto forum di cybersecurity BreachForums, con lo pseudonimo ThinkingOne, ha rivelato quello che potrebbe essere il più grande data breach mai registrato nel mondo ...
Quando Jeffrey Goldberg dell’Atlantic ha fatto trapelare accidentalmente un messaggio di gruppo privato di alti funzionari statunitensi su un possibile attacco contro gli Houthi nello Yemen, ha...
Ogni mese diventa sempre più evidente: le password non funzionano più. Gli hacker hanno imparato a eludere anche la protezione a due fattori sfruttando sessioni rubate e milioni di dati comp...
La pseudonimizzazione è una tecnica di protezione dei dati definita dall’art. 4(5) del GDPR. Consiste nella trasformazione dei dati personali in modo tale che non possano più essere a...
Copyright @ REDHOTCYBER Srl
PIVA 17898011006