Red Hot Cyber
La cybersecurity è condivisione. Riconosci il rischio, combattilo, condividi le tue esperienze ed incentiva gli altri a fare meglio di te.
Cerca

Hacker pronti a sfidare i chatbot al Def Con! Chi vincerà? La risposta è pressoché ovvia

Redazione RHC : 9 Agosto 2023 08:27

L’evento Howard, che il 19 luglio ha attirato alcune dozzine di studenti e appassionati di intelligenza artificiale negli Stati Uniti D’America, è stato un’anteprima di un evento pubblico molto più ampio che si terrà questa settimana al Def Con, la convention annuale degli hacker a Las Vegas. 

Ospitata dall’AI Village di Def Con, la Generative Red Team Challenge ha ottenuto il sostegno della Casa Bianca come parte della sua spinta a promuovere “l’innovazione responsabile” nell’IA, che ha provocato un’esplosione di clamore, investimenti e paura.

I migliori hacker di tutto il mondo accumuleranno punti per indurre i modelli di intelligenza artificiale a sbagliare in vari modi, con categorie di sfide che includono disinformazione politica, affermazioni diffamatorie e “discriminazione algoritmica” o pregiudizi sistemici

La NIS2 è complessa da capire?
Non perdere tempo, segui l'anteprima gratuita del corso che stiamo preparando.Accedi quindi alla nostra Academy e segui l'anteprima del corso della durata di 30 minuti per comprendere i contenuti esclusivi che tratteremo nel corso.per ulteriori informazioni, scrivici ad [email protected] oppure scrivici su Whatsapp al 379 163 8765 

Supporta RHC attraverso:


Ti piacciono gli articoli di Red Hot Cyber? Non aspettare oltre, iscriviti alla newsletter settimanale per non perdere nessun articolo

Le principali aziende di intelligenza artificiale come Google, OpenAI, Anthropic e Stability hanno offerto volontariamente di testare i loro ultimi chatbot e generatori di immagini. I risultati del concorso saranno protetti per diversi mesi dopo, hanno detto gli organizzatori, per dare alle aziende il tempo di affrontare i difetti esposti prima che vengano rivelati al mondo.

Il concorso sottolinea il crescente interesse, soprattutto tra i critici tecnologici e le autorità di regolamentazione governative, nell’applicare attività di red teaming – una pratica di lunga data nel settore tecnologico – a sistemi di intelligenza artificiale all’avanguardia come il modello di linguaggio ChatGPT di OpenAI. 

L’idea è che questi sistemi di intelligenza artificiale “generativi” siano così opachi nel loro funzionamento e così ampi nelle loro potenziali applicazioni, che è probabile che vengano sfruttati in modi sorprendenti.

Nell’ultimo anno, gli strumenti di intelligenza artificiale generativa hanno incantato l’industria tecnologica e abbagliato il pubblico con la loro capacità di portare avanti conversazioni e generare spontaneamente prosa, poesie, canzoni e immagini stranamente umane. 

Hanno anche spaventato i critici, i regolatori e persino i loro stessi creatori con la loro capacità di inganno, come la generazione di immagini false di Papa Francesco con il piumino che hanno ingannato milioni di persone nel mondo. 

In modo più allarmante, gli strumenti hanno mostrato la capacità di suggerire nuove armi biologiche, una capacità che secondo alcuni esperti di intelligenza artificiale potrebbe essere sfruttata da terroristi o stati canaglia.

Mentre i legislatori discutono su come regolamentare la tecnologia in rapido movimento, i giganti della tecnologia stanno correndo per dimostrare che possono autoregolarsi attraverso iniziative volontarie e partnership, tra cui quella annunciata dalla Casa Bianca il mese scorso . L’invio dei loro nuovi modelli di intelligenza artificiale per dei test di Red Team sembra essere una componente chiave di questi sforzi.

Redazione
La redazione di Red Hot Cyber è composta da un insieme di persone fisiche e fonti anonime che collaborano attivamente fornendo informazioni in anteprima e news sulla sicurezza informatica e sull'informatica in generale.