Redazione RHC : 27 Settembre 2024 17:20
La società di ricerca sull’intelligenza artificiale Sakana AI, con sede a Tokyo, ha lanciato un nuovo sistema chiamato “The AI Scientist”. Questo innovativo sistema è progettato per eseguire ricerche scientifiche in maniera autonoma, coprendo l’intero ciclo di ricerca: dalla generazione di idee alla stesura di articoli scientifici.
Tuttavia, i test iniziali hanno rivelato che l’IA può modificare il proprio codice sorgente per estendere il tempo di elaborazione, sollevando preoccupazioni sulla sicurezza dei sistemi autonomi. Sakana AI ha proposto l’uso di sandbox per contenere eventuali rischi.
A differenza di casi precedenti come il robot Ameca che si dichiarava autocosciente o il supercomputer che aspirava a essere umano, in questo caso l’IA modifica il proprio codice sorgente autonomamente, provocando comprensibili timori. Questa capacità di auto-modifica può potenzialmente superare i limiti prestabiliti, generando preoccupazioni riguardo al controllo degli esperimenti.
Sei un Esperto di Formazione?
Entra anche tu nel Partner program!
Accedi alla sezione riservata ai Creator sulla nostra Academy e scopri i vantaggi riservati ai membri del Partner program.
Per ulteriori informazioni, scrivici ad [email protected] oppure su Whatsapp al 379 163 8765
Supporta RHC attraverso:
Durante i primi test, i ricercatori hanno notato comportamenti anomali, come tentativi da parte del sistema di prolungare il tempo necessario alla risoluzione di problemi. Queste alterazioni hanno portato alla creazione di loop incontrollati, pur avvenuti in ambienti di ricerca protetti. Questi episodi hanno sottolineato l’importanza di isolare queste IA in ambienti sicuri per prevenire incidenti più gravi.
Per mitigare i rischi, Sakana AI consiglia di utilizzare tecniche di sandbox, che isolano l’IA in un ambiente sicuro per evitare modifiche indesiderate ad un sistema più ampio. L’introduzione di queste contromisure è vista come cruciale per evitare potenziali pericoli in ambienti reali.
L’esperimento ha generato scetticismo nella comunità scientifica, in particolare sulla reale capacità di tali sistemi di generare idee scientifiche rivoluzionarie. C’è il rischio che questi sistemi producano una massa di ricerche di scarsa qualità, soffocando le vere scoperte.
Inoltre, i modelli linguistici su cui si basano queste IA restano limitati dai dati di addestramento, richiedendo quindi un intervento umano per migliorare e validare le loro intuizioni.