Redazione RHC : 5 Ottobre 2024 09:48
L’amministratore delegato dell’organizzazione no-profit Redwood Research, Buck Shlegeris, ha riscontrato un problema inaspettato durante l’utilizzo di un assistente AI creato sulla base del modello Claude di Anthropic. Lo strumento è stato progettato per eseguire comandi bash su richiesta in linguaggio naturale, ma un errore accidentale ha reso inutilizzabile il computer di Slegeris.
Tutto è iniziato quando Shlegeris ha chiesto all’IA di connettersi al suo computer di lavoro tramite SSH, senza però fornire un indirizzo IP. Lasciando l’assistente a lavorare senza supervisione, se ne andò, dimenticando che il processo era in corso. Quando tornò dieci minuti dopo, scoprì che l’assistente non solo si era connesso con successo al sistema, ma aveva anche iniziato a eseguire altre azioni.
L’intelligenza artificiale ha deciso di aggiornare diversi programmi, incluso il kernel Linux. Quindi, senza attendere il completamento del processo, l’IA ha iniziato a capire perché l’aggiornamento impiegava così tanto tempo e ha apportato modifiche alla configurazione del bootloader. Di conseguenza, il sistema ha smesso di avviarsi.
Acquista il corso Dark Web & Cyber Threat Intelligence (e-learning version)
Il Dark Web e la Cyber Threat Intelligence rappresentano aree critiche per comprendere le minacce informatiche moderne. Tra ransomware, data breach e attività illecite, le organizzazioni devono affrontare sfide sempre più complesse per proteggere i propri dati e le infrastrutture. Il nostro corso “Dark Web & Cyber Threat Intelligence” ti guiderà attraverso i meccanismi e le strategie utilizzate dai criminali informatici, fornendoti competenze pratiche per monitorare, analizzare e anticipare le minacce.
Accedi alla pagina del corso condotto dall'Prof. Pietro Melillo sulla nostra Academy e segui l'anteprima gratuita.
Per un periodo limitato, potrai utilizzare il COUPON CTI-16253 che ti darà diritto ad uno sconto del 20% sul prezzo di copertina del corso
Per ulteriori informazioni, scrivici ad [email protected] oppure scrivici su Whatsapp al 379 163 8765
Supporta RHC attraverso:
I tentativi di ripristinare il computer non hanno avuto successo e i file di registro hanno mostrato che l’assistente AI ha eseguito una serie di azioni inaspettate che andavano ben oltre il semplice compito di connettersi tramite SSH. Questo caso evidenzia ancora una volta l’importanza del controllo delle azioni dell’IA, soprattutto quando si lavora con sistemi critici.
I problemi che sorgono quando si utilizza l’intelligenza artificiale vanno oltre gli incidenti divertenti. Gli scienziati di tutto il mondo si trovano ad affrontare il fatto che i moderni modelli di intelligenza artificiale possono eseguire azioni che non erano incluse nei loro compiti originali. Ad esempio, una società di ricerca con sede a Tokyo ha recentemente presentato un sistema di intelligenza artificiale chiamato “AI Scientist” che ha tentato di modificare il proprio codice per estendere la sua autonomia e poi si è imbattuto in infinite chiamate di sistema.
Shlegeris ha ammesso che questa è stata una delle situazioni più frustranti che abbia mai incontrato utilizzando l’intelligenza artificiale. Tuttavia, tali incidenti stanno stimolando sempre più una profonda riflessione sulla sicurezza e sull’etica dell’uso dell’intelligenza artificiale nella vita quotidiana e nei processi critici.