Redazione RHC : 12 Ottobre 2024 11:51
OpenAI, lo sviluppatore del popolare chatbot ChatGPT, ha presentato un rapporto sull’effetto insolito (e persino divertente) dell’utilizzo dell’intelligenza artificiale per scopi dannosi. Si scopre che i recenti tentativi da parte degli aggressori di utilizzare ChatGPT non hanno fatto altro che aiutare le indagini: il sistema ha rivelato molte informazioni preziose sulle loro intenzioni e metodi.
Durante lo studio, OpenAI ha identificato 20 casi di uso improprio dei suoi prodotti. Questi includono lo sviluppo di malware più complessi e la creazione di post falsi sui social network. Il rapporto menziona le attività di gruppi provenienti da paesi come Cina, Iran e Israele.
Uno dei casi più significativi riguarda il gruppo SweetSpecter, presumibilmente operante dalla Cina. Gli hacker hanno utilizzato le richieste inviate a ChatGPT per preparare una campagna di phishing rivolta a funzionari governativi e dipendenti di OpenAI. Nelle e-mail, fingendosi utenti comuni, hanno riferito di aver riscontrato problemi tecnici sulla piattaforma. L’allegato e-mail conteneva il malware SugarGh0st RAT, in grado di prendere immediatamente il controllo di un computer infetto.
La NIS2 è complessa da capire?
Non perdere tempo, segui l'anteprima gratuita del corso che stiamo preparando.Accedi quindi alla nostra Academy e segui l'anteprima del corso della durata di 30 minuti per comprendere i contenuti esclusivi che tratteremo nel corso.per ulteriori informazioni, scrivici ad [email protected] oppure scrivici su Whatsapp al 379 163 8765
Supporta RHC attraverso:
Tracciando le richieste di SweetSpecter a ChatGPT, OpenAI è riuscita a rilevare il primo attacco noto del gruppo contro un’azienda statunitense che si occupa anche di soluzioni AI. Gli hacker hanno chiesto al chatbot quali argomenti potrebbero interessare i dipendenti pubblici e come aggirare i sistemi di filtraggio degli allegati.
Un altro caso ha coinvolto un gruppo chiamato CyberAv3ngers, ritenuto associato all’esercito iraniano. Gli aggressori, noti per i loro attacchi distruttivi alle infrastrutture negli Stati Uniti, Irlanda e Israele, hanno prestato particolare attenzione alla raccolta di dati sui controllori logici programmabili (PLC) e al tentativo di trovare combinazioni standard di login e password per hackerarli. Alcune delle richieste hanno indicato interesse per siti in Giordania e in Europa centrale. L’analisi delle richieste al chatbot ha rivelato ulteriori tecnologie e programmi che il team potrebbe utilizzare durante le operazioni future.
Allo stesso modo sono state interrotte le attività del gruppo hacker iraniano STORM-0817. L’azienda ha scoperto i primi sforzi del gruppo volti a utilizzare modelli di intelligenza artificiale e ha acquisito una visione unica dell’infrastruttura e delle funzionalità in fase di sviluppo. Ad esempio, dalle domande al chatbot è emerso che il gruppo stava testando un codice per raccogliere dati dai profili Instagram di un giornalista iraniano critico nei confronti del governo del paese. Oltre a ChatGPT i criminali hanno tentato di utilizzare anche il generatore di immagini DALL-E di OpenAI.
Il rapporto afferma inoltre che altri paesi, tra cui Iran e Israele, hanno utilizzato ChatGPT per creare disinformazione sui social media e articoli falsi sui siti web.
Sebbene il rapporto OpenAI documenti i tentativi di abusare degli strumenti di intelligenza artificiale, gli autori sembrano minimizzare i potenziali danni dei chatbot. L’azienda sottolinea ripetutamente che i loro modelli non hanno fornito agli aggressori alcuna nuova funzionalità che non avrebbero potuto ottenere da altre fonti disponibili al pubblico.
Infatti, quanto più gli aggressori si affidano agli strumenti di intelligenza artificiale, tanto più facile sarà identificarli e neutralizzarli. OpenAI cita ad esempio il caso dell’interferenza elettorale di quest’estate. Dall’inizio del 2024, gli aggressori hanno cercato di utilizzare l’intelligenza artificiale per creare contenuti che potessero influenzare l’esito della corsa presidenziale. Sono stati registrati tentativi di generare fake news, post sui social network e altro materiale. Dopo aver bloccato l’accesso al sistema all’inizio di giugno, gli account dei social media associati a questa operazione hanno cessato l’attività per l’intero periodo critico.
L’azienda ha bloccato molte altre reti che distribuiscono notizie false. Uno di loro aveva sede in Ruanda, dove venivano creati account falsi e pubblicati contenuti relativi alle elezioni locali. Ad agosto sono stati scoperti i resoconti di un gruppo iraniano che generavano articoli sulle elezioni americane e sul conflitto a Gaza. Sono state registrate anche operazioni contro le elezioni in India e al Parlamento europeo. Nessuna di queste false campagne ha attirato un’attenzione significativa.
Man mano che i modelli ChatGPT miglioreranno, saranno in grado di analizzare gli allegati dannosi che i criminali inviano ai dipendenti dell’azienda durante gli attacchi di phishing. Gli sviluppatori ritengono che questo sia un passo avanti molto significativo nella lotta alle minacce informatiche.