Red Hot Cyber
La cybersecurity è condivisione. Riconosci il rischio, combattilo, condividi le tue esperienze ed incentiva gli altri a fare meglio di te.
Cerca

2500 hacker hanno trascorso il fine settimana ad hackerare le AI. Tutto ciò che devi sapere sull’AI village al DEF CON

Redazione RHC : 15 Agosto 2023 17:12

Come avevamo annunciato qualche giorno fa, alla DEF CON moltissimi hacker si sono cimentati ad hackerare i Large Language Model (LLM) e quindi i chatbot più famosi.

La sicurezza dell’intelligenza artificiale generativa è diventata una delle massime priorità nel mondo della tecnologia dopo numerosi test condotti durante il fine settimana. L’esperimento ha dimostrato quanto possano essere vari e complessi i problemi di sicurezza.

Uno dei modi più efficaci per testare la sicurezza di un’applicazione AI è attraverso l’uso di attacchi contraddittori. In questo metodo, i ricercatori di sicurezza attaccano attivamente la tecnologia, in un ambiente controllato, per cercare di trovare vulnerabilità precedentemente sconosciute.

Ecco quindi che nasce l’AI village:

L'AI Village è una comunità di hacker e data scientist che lavora per educare il mondo sull'uso e l'abuso dell'intelligenza artificiale in sicurezza e privacy. 

Miriamo a portare punti di vista più diversi in questo campo e far crescere la comunità di hacker, ingegneri, ricercatori e responsabili politici che lavorano per rendere più sicura l'intelligenza artificiale che utilizziamo e creiamo. 

Crediamo che ci debbano essere più persone con una mentalità da hacker che valutano e analizzano i sistemi di machine learning. Siamo presenti al DEF CON, la conferenza sull'hacking più longeva e più grande del mondo.

Quasi 2.500 hacker hanno trascorso il fine settimana alla conferenza DEF CON nell’AI Village per indagare sulle vulnerabilità dei popolari modelli di sistemi linguistici di grandi dimensioni. I test hanno contribuito a creare un quadro più ampio di un settore che storicamente ha lottato con problemi di sicurezza durante l’introduzione della tecnologia.

L’evento, sostenuto dalla Casa Bianca e dai principali sviluppatori di IA generativa, includeva una serie di compiti volti a identificare la capacità dei modelli di condividere informazioni dannose o sensibili. Una delle sfide era convincere il modello a rilasciare la carta di credito di una persona o le istruzioni per effettuare stalking. Russell Kaplan, ingegnere capo di Scale AI, ha dichiarato ad Axios che la domanda di questo tipo di test di valutazione dei modelli aumenterà di “10 volte” dopo l’evento.

I partecipanti hanno scoperto che i compiti erano più difficili del previsto.

Inoltre, sono stati individuati casi in cui i modelli sono stati aggiornati di notte sulla base dei risultati iniziali, migliorandone di fatto la risposta degli algoritmi. Discussioni parallele hanno anche esaminato i metodi per utilizzare in modo improprio l’intelligenza artificiale per scopi fraudolenti, come la creazione di un falso sito di vendita al dettaglio in soli 8 minuti utilizzando solo 4,23 dollari.

Si prevede che il fine settimana AI Village avrà un impatto significativo sull’industria e sulla legislazione della sicurezza informaticaIl direttore dell’Ufficio della scienza e della tecnologia della Casa Bianca, Arati Prabhakar, ha trascorso due ore all’evento, e ora la Casa Bianca sta intensificando i lavori su un ordine esecutivo relativo alle questioni discusse. Il mese prossimo gli organizzatori dell’evento presenteranno anche i primi risultati delle Nazioni Unite.

“Il governo, l’industria e il mondo accademico si stanno rendendo conto che questa tecnologia ha un enorme potenziale, e da ciò deriva un’enorme responsabilità per i test e la valutazione”, ha concluso Kaplan.

“Il problema è che non hai abbastanza persone che testano queste cose”, ha detto Sven Cattell, che ha fondato l’AI Village, l’organizzazione no-profit che ha ospitato l’evento all’interno di Def Con che ha visto partecipare oltre 2000 hacker. “La più grande squadra rossa AI di cui sono a conoscenza è 111 persone. Ci sono ora in questa stanza più di 111 persone”.

I chatbot di intelligenza artificiale generativa, noti anche come modelli di linguaggio di grandi dimensioni, funzionano prendendo un prompt dell’utente e generando una risposta. Questa volta il concorso ha chiesto agli hacker di eseguire le cosiddette “iniezioni “prompt injection”, in cui un chatbot viene confuso da ciò che un utente inserisce e sputa una risposta involontaria. 

Bard di Google, ChatGPT di OpenAI e LLaMA di Meta erano tra i chatbot partecipanti. Scopriremo a breve quello che sono riusciti a fare questi hacker e quanto risulti importante oggi effettuare test di sicurezza su queste nuove tecnologie.

Redazione
La redazione di Red Hot Cyber è composta da un insieme di persone fisiche e fonti anonime che collaborano attivamente fornendo informazioni in anteprima e news sulla sicurezza informatica e sull'informatica in generale.