
Come avevamo annunciato qualche giorno fa, alla DEF CON moltissimi hacker si sono cimentati ad hackerare i Large Language Model (LLM) e quindi i chatbot più famosi.
La sicurezza dell’intelligenza artificiale generativa è diventata una delle massime priorità nel mondo della tecnologia dopo numerosi test condotti durante il fine settimana. L’esperimento ha dimostrato quanto possano essere vari e complessi i problemi di sicurezza.
Uno dei modi più efficaci per testare la sicurezza di un’applicazione AI è attraverso l’uso di attacchi contraddittori. In questo metodo, i ricercatori di sicurezza attaccano attivamente la tecnologia, in un ambiente controllato, per cercare di trovare vulnerabilità precedentemente sconosciute.
Ecco quindi che nasce l’AI village:
L'AI Village è una comunità di hacker e data scientist che lavora per educare il mondo sull'uso e l'abuso dell'intelligenza artificiale in sicurezza e privacy.
Miriamo a portare punti di vista più diversi in questo campo e far crescere la comunità di hacker, ingegneri, ricercatori e responsabili politici che lavorano per rendere più sicura l'intelligenza artificiale che utilizziamo e creiamo.
Crediamo che ci debbano essere più persone con una mentalità da hacker che valutano e analizzano i sistemi di machine learning. Siamo presenti al DEF CON, la conferenza sull'hacking più longeva e più grande del mondo.Quasi 2.500 hacker hanno trascorso il fine settimana alla conferenza DEF CON nell’AI Village per indagare sulle vulnerabilità dei popolari modelli di sistemi linguistici di grandi dimensioni. I test hanno contribuito a creare un quadro più ampio di un settore che storicamente ha lottato con problemi di sicurezza durante l’introduzione della tecnologia.
L’evento, sostenuto dalla Casa Bianca e dai principali sviluppatori di IA generativa, includeva una serie di compiti volti a identificare la capacità dei modelli di condividere informazioni dannose o sensibili. Una delle sfide era convincere il modello a rilasciare la carta di credito di una persona o le istruzioni per effettuare stalking. Russell Kaplan, ingegnere capo di Scale AI, ha dichiarato ad Axios che la domanda di questo tipo di test di valutazione dei modelli aumenterà di “10 volte” dopo l’evento.
I partecipanti hanno scoperto che i compiti erano più difficili del previsto.
Inoltre, sono stati individuati casi in cui i modelli sono stati aggiornati di notte sulla base dei risultati iniziali, migliorandone di fatto la risposta degli algoritmi. Discussioni parallele hanno anche esaminato i metodi per utilizzare in modo improprio l’intelligenza artificiale per scopi fraudolenti, come la creazione di un falso sito di vendita al dettaglio in soli 8 minuti utilizzando solo 4,23 dollari.
Si prevede che il fine settimana AI Village avrà un impatto significativo sull’industria e sulla legislazione della sicurezza informatica. Il direttore dell’Ufficio della scienza e della tecnologia della Casa Bianca, Arati Prabhakar, ha trascorso due ore all’evento, e ora la Casa Bianca sta intensificando i lavori su un ordine esecutivo relativo alle questioni discusse. Il mese prossimo gli organizzatori dell’evento presenteranno anche i primi risultati delle Nazioni Unite.
“Il governo, l’industria e il mondo accademico si stanno rendendo conto che questa tecnologia ha un enorme potenziale, e da ciò deriva un’enorme responsabilità per i test e la valutazione”, ha concluso Kaplan.
“Il problema è che non hai abbastanza persone che testano queste cose”, ha detto Sven Cattell, che ha fondato l’AI Village, l’organizzazione no-profit che ha ospitato l’evento all’interno di Def Con che ha visto partecipare oltre 2000 hacker. “La più grande squadra rossa AI di cui sono a conoscenza è 111 persone. Ci sono ora in questa stanza più di 111 persone”.
I chatbot di intelligenza artificiale generativa, noti anche come modelli di linguaggio di grandi dimensioni, funzionano prendendo un prompt dell’utente e generando una risposta. Questa volta il concorso ha chiesto agli hacker di eseguire le cosiddette “iniezioni “prompt injection”, in cui un chatbot viene confuso da ciò che un utente inserisce e sputa una risposta involontaria.
Bard di Google, ChatGPT di OpenAI e LLaMA di Meta erano tra i chatbot partecipanti. Scopriremo a breve quello che sono riusciti a fare questi hacker e quanto risulti importante oggi effettuare test di sicurezza su queste nuove tecnologie.
Ti è piaciuto questo articolo? Ne stiamo discutendo nella nostra Community su LinkedIn, Facebook e Instagram. Seguici anche su Google News, per ricevere aggiornamenti quotidiani sulla sicurezza informatica o Scrivici se desideri segnalarci notizie, approfondimenti o contributi da pubblicare.

InnovazioneL’evoluzione dell’Intelligenza Artificiale ha superato una nuova, inquietante frontiera. Se fino a ieri parlavamo di algoritmi confinati dietro uno schermo, oggi ci troviamo di fronte al concetto di “Meatspace Layer”: un’infrastruttura dove le macchine non…
CybercrimeNegli ultimi anni, la sicurezza delle reti ha affrontato minacce sempre più sofisticate, capaci di aggirare le difese tradizionali e di penetrare negli strati più profondi delle infrastrutture. Un’analisi recente ha portato alla luce uno…
VulnerabilitàNegli ultimi tempi, la piattaforma di automazione n8n sta affrontando una serie crescente di bug di sicurezza. n8n è una piattaforma di automazione che trasforma task complessi in operazioni semplici e veloci. Con pochi click…
InnovazioneArticolo scritto con la collaborazione di Giovanni Pollola. Per anni, “IA a bordo dei satelliti” serviva soprattutto a “ripulire” i dati: meno rumore nelle immagini e nei dati acquisiti attraverso i vari payload multisensoriali, meno…
Cyber ItaliaNegli ultimi giorni è stato segnalato un preoccupante aumento di truffe diffuse tramite WhatsApp dal CERT-AGID. I messaggi arrivano apparentemente da contatti conosciuti e richiedono urgentemente denaro, spesso per emergenze come spese mediche improvvise. La…