Redazione RHC : 12 Ottobre 2024 11:51
OpenAI, lo sviluppatore del popolare chatbot ChatGPT, ha presentato un rapporto sull’effetto insolito (e persino divertente) dell’utilizzo dell’intelligenza artificiale per scopi dannosi. Si scopre che i recenti tentativi da parte degli aggressori di utilizzare ChatGPT non hanno fatto altro che aiutare le indagini: il sistema ha rivelato molte informazioni preziose sulle loro intenzioni e metodi.
Durante lo studio, OpenAI ha identificato 20 casi di uso improprio dei suoi prodotti. Questi includono lo sviluppo di malware più complessi e la creazione di post falsi sui social network. Il rapporto menziona le attività di gruppi provenienti da paesi come Cina, Iran e Israele.
Uno dei casi più significativi riguarda il gruppo SweetSpecter, presumibilmente operante dalla Cina. Gli hacker hanno utilizzato le richieste inviate a ChatGPT per preparare una campagna di phishing rivolta a funzionari governativi e dipendenti di OpenAI. Nelle e-mail, fingendosi utenti comuni, hanno riferito di aver riscontrato problemi tecnici sulla piattaforma. L’allegato e-mail conteneva il malware SugarGh0st RAT, in grado di prendere immediatamente il controllo di un computer infetto.
Vorresti toccare con mano la Cybersecurity e la tecnologia? Iscriviti GRATIS ai WorkShop Hands-On della RHC Conference 2025 (Giovedì 8 maggio 2025)
Se sei un ragazzo delle scuole medie, superiori o frequenti l'università, oppure banalmente un curioso di qualsiasi età, il giorno giovedì 8 maggio 2025 presso il teatro Italia di Roma (a due passi dalla stazione termini e dalla metro B di Piazza Bologna), si terranno i workshop "hands-on", creati per far avvicinare i ragazzi alla sicurezza informatica e alla tecnologia. Questo anno i workshop saranno:
Supporta RHC attraverso:
Ti piacciono gli articoli di Red Hot Cyber? Non aspettare oltre, iscriviti alla newsletter settimanale per non perdere nessun articolo.
Tracciando le richieste di SweetSpecter a ChatGPT, OpenAI è riuscita a rilevare il primo attacco noto del gruppo contro un’azienda statunitense che si occupa anche di soluzioni AI. Gli hacker hanno chiesto al chatbot quali argomenti potrebbero interessare i dipendenti pubblici e come aggirare i sistemi di filtraggio degli allegati.
Un altro caso ha coinvolto un gruppo chiamato CyberAv3ngers, ritenuto associato all’esercito iraniano. Gli aggressori, noti per i loro attacchi distruttivi alle infrastrutture negli Stati Uniti, Irlanda e Israele, hanno prestato particolare attenzione alla raccolta di dati sui controllori logici programmabili (PLC) e al tentativo di trovare combinazioni standard di login e password per hackerarli. Alcune delle richieste hanno indicato interesse per siti in Giordania e in Europa centrale. L’analisi delle richieste al chatbot ha rivelato ulteriori tecnologie e programmi che il team potrebbe utilizzare durante le operazioni future.
Allo stesso modo sono state interrotte le attività del gruppo hacker iraniano STORM-0817. L’azienda ha scoperto i primi sforzi del gruppo volti a utilizzare modelli di intelligenza artificiale e ha acquisito una visione unica dell’infrastruttura e delle funzionalità in fase di sviluppo. Ad esempio, dalle domande al chatbot è emerso che il gruppo stava testando un codice per raccogliere dati dai profili Instagram di un giornalista iraniano critico nei confronti del governo del paese. Oltre a ChatGPT i criminali hanno tentato di utilizzare anche il generatore di immagini DALL-E di OpenAI.
Il rapporto afferma inoltre che altri paesi, tra cui Iran e Israele, hanno utilizzato ChatGPT per creare disinformazione sui social media e articoli falsi sui siti web.
Sebbene il rapporto OpenAI documenti i tentativi di abusare degli strumenti di intelligenza artificiale, gli autori sembrano minimizzare i potenziali danni dei chatbot. L’azienda sottolinea ripetutamente che i loro modelli non hanno fornito agli aggressori alcuna nuova funzionalità che non avrebbero potuto ottenere da altre fonti disponibili al pubblico.
Infatti, quanto più gli aggressori si affidano agli strumenti di intelligenza artificiale, tanto più facile sarà identificarli e neutralizzarli. OpenAI cita ad esempio il caso dell’interferenza elettorale di quest’estate. Dall’inizio del 2024, gli aggressori hanno cercato di utilizzare l’intelligenza artificiale per creare contenuti che potessero influenzare l’esito della corsa presidenziale. Sono stati registrati tentativi di generare fake news, post sui social network e altro materiale. Dopo aver bloccato l’accesso al sistema all’inizio di giugno, gli account dei social media associati a questa operazione hanno cessato l’attività per l’intero periodo critico.
L’azienda ha bloccato molte altre reti che distribuiscono notizie false. Uno di loro aveva sede in Ruanda, dove venivano creati account falsi e pubblicati contenuti relativi alle elezioni locali. Ad agosto sono stati scoperti i resoconti di un gruppo iraniano che generavano articoli sulle elezioni americane e sul conflitto a Gaza. Sono state registrate anche operazioni contro le elezioni in India e al Parlamento europeo. Nessuna di queste false campagne ha attirato un’attenzione significativa.
Man mano che i modelli ChatGPT miglioreranno, saranno in grado di analizzare gli allegati dannosi che i criminali inviano ai dipendenti dell’azienda durante gli attacchi di phishing. Gli sviluppatori ritengono che questo sia un passo avanti molto significativo nella lotta alle minacce informatiche.
Oggi i bambini sono un po’ più al sicuro grazie ad una operazione di polizia coordinata da Europol che ha portato alla chiusura di Kidflix. Si tratta di una delle più grandi piattafor...
Uno degli autori di Flipper Zero, Pavel Zhovner, ha condiviso i dettagli su come stanno procedendo i lavori su una nuova versione del multi-strumento per hacker: Flipper One. Lo sviluppatore ha pubbli...
Il ransomware HellCat è apparso nella seconda metà del 2024 e ha attirato l’attenzione degli analisti grazie all’umorismo delle sue dichiarazioni pubbliche. Ricordiamo l’...
Il 28 marzo 2025, un utente del noto forum di cybersecurity BreachForums, con lo pseudonimo ThinkingOne, ha rivelato quello che potrebbe essere il più grande data breach mai registrato nel mondo ...
Quando Jeffrey Goldberg dell’Atlantic ha fatto trapelare accidentalmente un messaggio di gruppo privato di alti funzionari statunitensi su un possibile attacco contro gli Houthi nello Yemen, ha...
Copyright @ REDHOTCYBER Srl
PIVA 17898011006