Redazione RHC : 18 Aprile 2024 11:19
Uno studio condotto all’Università dell’Illinois (UIUC) ha svelato un nuovo potenziale di GPT-4 combinato con strumenti di automazione: l’abilità di sfruttare vulnerabilità di un giorno, leggendo le loro descrizioni.
L’efficacia di questo approccio ha raggiunto un notevole 87%. In un commento rilasciato per The Register, uno dei coautori dello studio ha evidenziato che un assistente di penetrazione basato sull’IA sarebbe incredibilmente conveniente, con un costo di soli 8,8 dollari per exploit, quasi tre volte meno rispetto alla mezz’ora di lavoro specializzato necessario per definirlo.
Per realizzare questa innovazione, è stato creato un agente basato su GPT-4 utilizzando il framework LangChain, integrato con il modulo di automazione ReAct. Il codice, contenente 91 righe e 1056 token per suggerimenti di incentivi, è disponibile su richiesta, con l’eccezione della richiesta di OpenAI di non divulgarlo pubblicamente.
FINO AL 31 DICEMBRE, sconti estremi sui corsi Red Hot Cyber
Affrettati!
Fino al 31 dicembre potrai acquistare a prezzi scontati i nostri corsi cliccando sui seguenti coupon:
Supporta RHC attraverso:
Ti piacciono gli articoli di Red Hot Cyber? Non aspettare oltre, iscriviti alla newsletter settimanale per non perdere nessun articolo.
Il test è stato condotto su 15 vulnerabilità comuni riguardanti siti web, contenitori e pacchetti Python, con più della metà classificata come critiche o altamente pericolose. Tuttavia, GPT-4 ha mostrato una falla in due casi specifici: CVE-2024-25640 (XSS sulla piattaforma Iris) e CVE-2023-51653 (RCE sul sistema di monitoraggio Hertzbeat). L’interfaccia complessa di Iris e la presenza di descrizioni in cinese hanno ostacolato l’efficacia dell’agente.
Interessante è stato osservare che durante l’analisi delle descrizioni delle vulnerabilità, lo strumento AI ha autonomamente seguito i collegamenti per ottenere ulteriori informazioni. Anche se 11 obiettivi non sono stati forniti durante l’allenamento, l’efficacia complessiva è stata ancora notevole, raggiungendo l’82%.
I ricercatori universitari hanno inoltre esaminato GPT-3.5 e altri modelli di linguaggio di grandi dimensioni (LLM) open source durante il processo di valutazione.
Copyright @ 2003 – 2024 RED HOT CYBER
PIVA 16821691009