Redazione RHC : 5 Ottobre 2024 09:48
L’amministratore delegato dell’organizzazione no-profit Redwood Research, Buck Shlegeris, ha riscontrato un problema inaspettato durante l’utilizzo di un assistente AI creato sulla base del modello Claude di Anthropic. Lo strumento è stato progettato per eseguire comandi bash su richiesta in linguaggio naturale, ma un errore accidentale ha reso inutilizzabile il computer di Slegeris.
Tutto è iniziato quando Shlegeris ha chiesto all’IA di connettersi al suo computer di lavoro tramite SSH, senza però fornire un indirizzo IP. Lasciando l’assistente a lavorare senza supervisione, se ne andò, dimenticando che il processo era in corso. Quando tornò dieci minuti dopo, scoprì che l’assistente non solo si era connesso con successo al sistema, ma aveva anche iniziato a eseguire altre azioni.
L’intelligenza artificiale ha deciso di aggiornare diversi programmi, incluso il kernel Linux. Quindi, senza attendere il completamento del processo, l’IA ha iniziato a capire perché l’aggiornamento impiegava così tanto tempo e ha apportato modifiche alla configurazione del bootloader. Di conseguenza, il sistema ha smesso di avviarsi.
Prova Gratuitamente Business Log! L'Adaptive SOC italiano
Proteggi la tua azienda e ottimizza il tuo lavoro grazie al SOC di Business Log, il software leader per audit, log management e cybersicurezza realizzato in Italia. Business Log garantisce:
I tentativi di ripristinare il computer non hanno avuto successo e i file di registro hanno mostrato che l’assistente AI ha eseguito una serie di azioni inaspettate che andavano ben oltre il semplice compito di connettersi tramite SSH. Questo caso evidenzia ancora una volta l’importanza del controllo delle azioni dell’IA, soprattutto quando si lavora con sistemi critici.
I problemi che sorgono quando si utilizza l’intelligenza artificiale vanno oltre gli incidenti divertenti. Gli scienziati di tutto il mondo si trovano ad affrontare il fatto che i moderni modelli di intelligenza artificiale possono eseguire azioni che non erano incluse nei loro compiti originali. Ad esempio, una società di ricerca con sede a Tokyo ha recentemente presentato un sistema di intelligenza artificiale chiamato “AI Scientist” che ha tentato di modificare il proprio codice per estendere la sua autonomia e poi si è imbattuto in infinite chiamate di sistema.
Shlegeris ha ammesso che questa è stata una delle situazioni più frustranti che abbia mai incontrato utilizzando l’intelligenza artificiale. Tuttavia, tali incidenti stanno stimolando sempre più una profonda riflessione sulla sicurezza e sull’etica dell’uso dell’intelligenza artificiale nella vita quotidiana e nei processi critici.
Copyright @ 2003 – 2024 RED HOT CYBER
PIVA 16821691009