Redazione RHC : 15 Agosto 2023 17:12
Come avevamo annunciato qualche giorno fa, alla DEF CON moltissimi hacker si sono cimentati ad hackerare i Large Language Model (LLM) e quindi i chatbot più famosi.
La sicurezza dell’intelligenza artificiale generativa è diventata una delle massime priorità nel mondo della tecnologia dopo numerosi test condotti durante il fine settimana. L’esperimento ha dimostrato quanto possano essere vari e complessi i problemi di sicurezza.
Uno dei modi più efficaci per testare la sicurezza di un’applicazione AI è attraverso l’uso di attacchi contraddittori. In questo metodo, i ricercatori di sicurezza attaccano attivamente la tecnologia, in un ambiente controllato, per cercare di trovare vulnerabilità precedentemente sconosciute.
Vorresti toccare con mano la Cybersecurity e la tecnologia? Iscriviti GRATIS ai WorkShop Hands-On della RHC Conference 2025 (Giovedì 8 maggio 2025)
Se sei un ragazzo delle scuole medie, superiori o frequenti l'università, oppure banalmente un curioso di qualsiasi età, il giorno giovedì 8 maggio 2025 presso il teatro Italia di Roma (a due passi dalla stazione termini e dalla metro B di Piazza Bologna), si terranno i workshop "hands-on", creati per far avvicinare i ragazzi alla sicurezza informatica e alla tecnologia. Questo anno i workshop saranno:
Supporta RHC attraverso:
Ti piacciono gli articoli di Red Hot Cyber? Non aspettare oltre, iscriviti alla newsletter settimanale per non perdere nessun articolo.
Ecco quindi che nasce l’AI village:
L'AI Village è una comunità di hacker e data scientist che lavora per educare il mondo sull'uso e l'abuso dell'intelligenza artificiale in sicurezza e privacy.
Miriamo a portare punti di vista più diversi in questo campo e far crescere la comunità di hacker, ingegneri, ricercatori e responsabili politici che lavorano per rendere più sicura l'intelligenza artificiale che utilizziamo e creiamo.
Crediamo che ci debbano essere più persone con una mentalità da hacker che valutano e analizzano i sistemi di machine learning. Siamo presenti al DEF CON, la conferenza sull'hacking più longeva e più grande del mondo.
Quasi 2.500 hacker hanno trascorso il fine settimana alla conferenza DEF CON nell’AI Village per indagare sulle vulnerabilità dei popolari modelli di sistemi linguistici di grandi dimensioni. I test hanno contribuito a creare un quadro più ampio di un settore che storicamente ha lottato con problemi di sicurezza durante l’introduzione della tecnologia.
L’evento, sostenuto dalla Casa Bianca e dai principali sviluppatori di IA generativa, includeva una serie di compiti volti a identificare la capacità dei modelli di condividere informazioni dannose o sensibili. Una delle sfide era convincere il modello a rilasciare la carta di credito di una persona o le istruzioni per effettuare stalking. Russell Kaplan, ingegnere capo di Scale AI, ha dichiarato ad Axios che la domanda di questo tipo di test di valutazione dei modelli aumenterà di “10 volte” dopo l’evento.
I partecipanti hanno scoperto che i compiti erano più difficili del previsto.
Inoltre, sono stati individuati casi in cui i modelli sono stati aggiornati di notte sulla base dei risultati iniziali, migliorandone di fatto la risposta degli algoritmi. Discussioni parallele hanno anche esaminato i metodi per utilizzare in modo improprio l’intelligenza artificiale per scopi fraudolenti, come la creazione di un falso sito di vendita al dettaglio in soli 8 minuti utilizzando solo 4,23 dollari.
Si prevede che il fine settimana AI Village avrà un impatto significativo sull’industria e sulla legislazione della sicurezza informatica. Il direttore dell’Ufficio della scienza e della tecnologia della Casa Bianca, Arati Prabhakar, ha trascorso due ore all’evento, e ora la Casa Bianca sta intensificando i lavori su un ordine esecutivo relativo alle questioni discusse. Il mese prossimo gli organizzatori dell’evento presenteranno anche i primi risultati delle Nazioni Unite.
“Il governo, l’industria e il mondo accademico si stanno rendendo conto che questa tecnologia ha un enorme potenziale, e da ciò deriva un’enorme responsabilità per i test e la valutazione”, ha concluso Kaplan.
“Il problema è che non hai abbastanza persone che testano queste cose”, ha detto Sven Cattell, che ha fondato l’AI Village, l’organizzazione no-profit che ha ospitato l’evento all’interno di Def Con che ha visto partecipare oltre 2000 hacker. “La più grande squadra rossa AI di cui sono a conoscenza è 111 persone. Ci sono ora in questa stanza più di 111 persone”.
I chatbot di intelligenza artificiale generativa, noti anche come modelli di linguaggio di grandi dimensioni, funzionano prendendo un prompt dell’utente e generando una risposta. Questa volta il concorso ha chiesto agli hacker di eseguire le cosiddette “iniezioni “prompt injection”, in cui un chatbot viene confuso da ciò che un utente inserisce e sputa una risposta involontaria.
Bard di Google, ChatGPT di OpenAI e LLaMA di Meta erano tra i chatbot partecipanti. Scopriremo a breve quello che sono riusciti a fare questi hacker e quanto risulti importante oggi effettuare test di sicurezza su queste nuove tecnologie.
L’imageboard di 4chan è praticamente inattivo da lunedì sera (14 aprile), apparentemente a causa di un attacco hacker. I membri dell’imageboard Soyjak party (noto anche semplic...
Apple ha rilasciato patch di emergenza per correggere due vulnerabilità zero-day. Secondo l’azienda, questi problemi sono stati sfruttati in attacchi mirati ed “estremamen...
Quanto accaduto in questi giorni deve rappresentare un campanello d’allarme per l’Europa.Mentre il programma CVE — pilastro della sicurezza informatica globale — rischiava ...
Il 16 aprile 2025, Spotify ha subito un’interruzione del servizio che ha colpito numerosi utenti in Italia e nel mondo. A partire dalle ore 14:00, migliaia di segnalazioni sono state re...
Fourlis Group, il gestore dei negozi IKEA in Grecia, Cipro, Romania e Bulgaria, ha dichiarato di aver subito un attacco ransomware prima del Black Friday del 27 novembre 2024, che ha causato...
Copyright @ REDHOTCYBER Srl
PIVA 17898011006