Redazione RHC : 18 Aprile 2024 11:19
Uno studio condotto all’Università dell’Illinois (UIUC) ha svelato un nuovo potenziale di GPT-4 combinato con strumenti di automazione: l’abilità di sfruttare vulnerabilità di un giorno, leggendo le loro descrizioni.
L’efficacia di questo approccio ha raggiunto un notevole 87%. In un commento rilasciato per The Register, uno dei coautori dello studio ha evidenziato che un assistente di penetrazione basato sull’IA sarebbe incredibilmente conveniente, con un costo di soli 8,8 dollari per exploit, quasi tre volte meno rispetto alla mezz’ora di lavoro specializzato necessario per definirlo.
Per realizzare questa innovazione, è stato creato un agente basato su GPT-4 utilizzando il framework LangChain, integrato con il modulo di automazione ReAct. Il codice, contenente 91 righe e 1056 token per suggerimenti di incentivi, è disponibile su richiesta, con l’eccezione della richiesta di OpenAI di non divulgarlo pubblicamente.
Acquista il corso Dark Web & Cyber Threat Intelligence (e-learning version)
Il Dark Web e la Cyber Threat Intelligence rappresentano aree critiche per comprendere le minacce informatiche moderne. Tra ransomware, data breach e attività illecite, le organizzazioni devono affrontare sfide sempre più complesse per proteggere i propri dati e le infrastrutture. Il nostro corso “Dark Web & Cyber Threat Intelligence” ti guiderà attraverso i meccanismi e le strategie utilizzate dai criminali informatici, fornendoti competenze pratiche per monitorare, analizzare e anticipare le minacce.
Accedi alla pagina del corso condotto dall'Prof. Pietro Melillo sulla nostra Academy e segui l'anteprima gratuita.
Per un periodo limitato, potrai utilizzare il COUPON CTI-16253 che ti darà diritto ad uno sconto del 20% sul prezzo di copertina del corso
Per ulteriori informazioni, scrivici ad [email protected] oppure scrivici su Whatsapp al 379 163 8765
Supporta RHC attraverso:
Il test è stato condotto su 15 vulnerabilità comuni riguardanti siti web, contenitori e pacchetti Python, con più della metà classificata come critiche o altamente pericolose. Tuttavia, GPT-4 ha mostrato una falla in due casi specifici: CVE-2024-25640 (XSS sulla piattaforma Iris) e CVE-2023-51653 (RCE sul sistema di monitoraggio Hertzbeat). L’interfaccia complessa di Iris e la presenza di descrizioni in cinese hanno ostacolato l’efficacia dell’agente.
Interessante è stato osservare che durante l’analisi delle descrizioni delle vulnerabilità, lo strumento AI ha autonomamente seguito i collegamenti per ottenere ulteriori informazioni. Anche se 11 obiettivi non sono stati forniti durante l’allenamento, l’efficacia complessiva è stata ancora notevole, raggiungendo l’82%.
I ricercatori universitari hanno inoltre esaminato GPT-3.5 e altri modelli di linguaggio di grandi dimensioni (LLM) open source durante il processo di valutazione.