Redazione RHC : 5 Ottobre 2024 09:48
L’amministratore delegato dell’organizzazione no-profit Redwood Research, Buck Shlegeris, ha riscontrato un problema inaspettato durante l’utilizzo di un assistente AI creato sulla base del modello Claude di Anthropic. Lo strumento è stato progettato per eseguire comandi bash su richiesta in linguaggio naturale, ma un errore accidentale ha reso inutilizzabile il computer di Slegeris.
Tutto è iniziato quando Shlegeris ha chiesto all’IA di connettersi al suo computer di lavoro tramite SSH, senza però fornire un indirizzo IP. Lasciando l’assistente a lavorare senza supervisione, se ne andò, dimenticando che il processo era in corso. Quando tornò dieci minuti dopo, scoprì che l’assistente non solo si era connesso con successo al sistema, ma aveva anche iniziato a eseguire altre azioni.
L’intelligenza artificiale ha deciso di aggiornare diversi programmi, incluso il kernel Linux. Quindi, senza attendere il completamento del processo, l’IA ha iniziato a capire perché l’aggiornamento impiegava così tanto tempo e ha apportato modifiche alla configurazione del bootloader. Di conseguenza, il sistema ha smesso di avviarsi.
Iscriviti GRATIS ai WorkShop Hands-On della RHC Conference 2025 (Giovedì 8 maggio 2025)
Il giorno giovedì 8 maggio 2025 presso il teatro Italia di Roma (a due passi dalla stazione termini e dalla metro B di Piazza Bologna), si terranno i workshop "hands-on", creati per far avvicinare i ragazzi (o persone di qualsiasi età) alla sicurezza informatica e alla tecnologia. Questo anno i workshop saranno:
Supporta RHC attraverso:
Ti piacciono gli articoli di Red Hot Cyber? Non aspettare oltre, iscriviti alla newsletter settimanale per non perdere nessun articolo.
I tentativi di ripristinare il computer non hanno avuto successo e i file di registro hanno mostrato che l’assistente AI ha eseguito una serie di azioni inaspettate che andavano ben oltre il semplice compito di connettersi tramite SSH. Questo caso evidenzia ancora una volta l’importanza del controllo delle azioni dell’IA, soprattutto quando si lavora con sistemi critici.
I problemi che sorgono quando si utilizza l’intelligenza artificiale vanno oltre gli incidenti divertenti. Gli scienziati di tutto il mondo si trovano ad affrontare il fatto che i moderni modelli di intelligenza artificiale possono eseguire azioni che non erano incluse nei loro compiti originali. Ad esempio, una società di ricerca con sede a Tokyo ha recentemente presentato un sistema di intelligenza artificiale chiamato “AI Scientist” che ha tentato di modificare il proprio codice per estendere la sua autonomia e poi si è imbattuto in infinite chiamate di sistema.
Shlegeris ha ammesso che questa è stata una delle situazioni più frustranti che abbia mai incontrato utilizzando l’intelligenza artificiale. Tuttavia, tali incidenti stanno stimolando sempre più una profonda riflessione sulla sicurezza e sull’etica dell’uso dell’intelligenza artificiale nella vita quotidiana e nei processi critici.
Uno degli autori di Flipper Zero, Pavel Zhovner, ha condiviso i dettagli su come stanno procedendo i lavori su una nuova versione del multi-strumento per hacker: Flipper One. Lo sviluppatore ha pubbli...
Il ransomware HellCat è apparso nella seconda metà del 2024 e ha attirato l’attenzione degli analisti grazie all’umorismo delle sue dichiarazioni pubbliche. Ricordiamo l’...
Il 28 marzo 2025, un utente del noto forum di cybersecurity BreachForums, con lo pseudonimo ThinkingOne, ha rivelato quello che potrebbe essere il più grande data breach mai registrato nel mondo ...
Quando Jeffrey Goldberg dell’Atlantic ha fatto trapelare accidentalmente un messaggio di gruppo privato di alti funzionari statunitensi su un possibile attacco contro gli Houthi nello Yemen, ha...
Ogni mese diventa sempre più evidente: le password non funzionano più. Gli hacker hanno imparato a eludere anche la protezione a due fattori sfruttando sessioni rubate e milioni di dati comp...
Copyright @ REDHOTCYBER Srl
PIVA 17898011006