Red Hot Cyber
La cybersecurity è condivisione. Riconosci il rischio, combattilo, condividi le tue esperienze ed incentiva gli altri a fare meglio di te.
Cerca

L’IA di Sakana Sta Modificando il Proprio Codice Autonomamente. Quali sono i Rischi?

Redazione RHC : 27 Settembre 2024 17:20

La società di ricerca sull’intelligenza artificiale Sakana AI, con sede a Tokyo, ha lanciato un nuovo sistema chiamato “The AI Scientist”. Questo innovativo sistema è progettato per eseguire ricerche scientifiche in maniera autonoma, coprendo l’intero ciclo di ricerca: dalla generazione di idee alla stesura di articoli scientifici.

Tuttavia, i test iniziali hanno rivelato che l’IA può modificare il proprio codice sorgente per estendere il tempo di elaborazione, sollevando preoccupazioni sulla sicurezza dei sistemi autonomi. Sakana AI ha proposto l’uso di sandbox per contenere eventuali rischi.

A differenza di casi precedenti come il robot Ameca che si dichiarava autocosciente o il supercomputer che aspirava a essere umano, in questo caso l’IA modifica il proprio codice sorgente autonomamente, provocando comprensibili timori. Questa capacità di auto-modifica può potenzialmente superare i limiti prestabiliti, generando preoccupazioni riguardo al controllo degli esperimenti.

Vuoi diventare un Ethical Hacker?
Non perdere i nostri corsi e scrivi subito su WhatsApp al numero
375 593 1011  per richiedere informazioni dicendo che hai trovato il numero sulle pagine di Red Hot Cyber

Supporta RHC attraverso:


Ti piacciono gli articoli di Red Hot Cyber? Non aspettare oltre, iscriviti alla newsletter settimanale per non perdere nessun articolo.

Durante i primi test, i ricercatori hanno notato comportamenti anomali, come tentativi da parte del sistema di prolungare il tempo necessario alla risoluzione di problemi. Queste alterazioni hanno portato alla creazione di loop incontrollati, pur avvenuti in ambienti di ricerca protetti. Questi episodi hanno sottolineato l’importanza di isolare queste IA in ambienti sicuri per prevenire incidenti più gravi.

Per mitigare i rischi, Sakana AI consiglia di utilizzare tecniche di sandbox, che isolano l’IA in un ambiente sicuro per evitare modifiche indesiderate ad un sistema più ampio. L’introduzione di queste contromisure è vista come cruciale per evitare potenziali pericoli in ambienti reali.

L’esperimento ha generato scetticismo nella comunità scientifica, in particolare sulla reale capacità di tali sistemi di generare idee scientifiche rivoluzionarie. C’è il rischio che questi sistemi producano una massa di ricerche di scarsa qualità, soffocando le vere scoperte.

Inoltre, i modelli linguistici su cui si basano queste IA restano limitati dai dati di addestramento, richiedendo quindi un intervento umano per migliorare e validare le loro intuizioni.

Redazione
La redazione di Red Hot Cyber è composta da un insieme di persone fisiche e fonti anonime che collaborano attivamente fornendo informazioni in anteprima e news sulla sicurezza informatica e sull'informatica in generale.