Red Hot Cyber
La cybersecurity è condivisione. Riconosci il rischio, combattilo, condividi le tue esperienze ed incentiva gli altri a fare meglio di te.
Cerca

ASCII Smuggling: come esfiltrare dati personali da Microsoft Copilot

Redazione RHC : 28 Agosto 2024 20:39

Un ricercatore di sicurezza informatica ha scoperto una vulnerabilità critica nell’assistente AI integrato di Microsoft 365 , Copilot, che potrebbe consentire agli aggressori di rubare dati sensibili.

L’exploit, precedentemente presentato al Microsoft Security Response Center (MSRC), combina diverse tecniche sofisticate per creare rischi per la sicurezza dei dati e la privacy. La vulnerabilità è stata scoperta attraverso una ricerca pubblicata dal team Embrace The Red.

L’exploit è un attacco in più fasi. Inizia con la ricezione da parte dell’utente di un’e-mail o di un documento dannoso contenente istruzioni nascoste. Quando queste istruzioni vengono elaborate da Copilot, lo strumento si attiva automaticamente e inizia a cercare ulteriori email e documenti, aumentando la portata dell’attacco senza l’intervento dell’utente.

Vuoi diventare un Ethical Hacker?
Non perdere i nostri corsi e scrivi subito su WhatsApp al numero
375 593 1011  per richiedere informazioni dicendo che hai trovato il numero sulle pagine di Red Hot Cyber

Supporta RHC attraverso:


Ti piacciono gli articoli di Red Hot Cyber? Non aspettare oltre, iscriviti alla newsletter settimanale per non perdere nessun articolo.

L’elemento chiave di questo exploit è il cosiddetto ASCII Smuggling. Questa tecnica utilizza caratteri Unicode speciali per rendere i dati invisibili all’utente. Gli aggressori possono incorporare informazioni sensibili in collegamenti ipertestuali che, se cliccati, inviano dati ai server che essi controllano.

Lo studio ha dimostrato una situazione in cui un documento Word contenente istruzioni appositamente progettate era in grado di indurre Microsoft Copilot a eseguire azioni coerenti con un’attività fraudolenta. Questo documento utilizzava la tecnica “Prompt Injection” , che consentiva di iniettare nel testo comandi, percepiti da Copilot come richieste legittime.

Quando Copilot ha elaborato questo documento, ha iniziato a eseguire le azioni in esso specificate, come se fossero normali comandi utente. Di conseguenza, lo strumento avviava automaticamente azioni che potevano portare alla fuga di informazioni riservate o ad altri tipi di frode, senza alcun preavviso all’utente.

L’ultima fase dell’attacco è l’esfiltrazione dei dati. Controllando Copilot e ottenendo l’accesso a dati aggiuntivi, gli aggressori hanno incorporato informazioni nascoste in collegamenti ipertestuali che vengono poi inviati a server esterni quando gli utenti fanno clic.

Per ridurre il rischio, il ricercatore ha suggerito a Microsoft una serie di misure, tra cui la disattivazione dell’interpretazione dei tag Unicode e la prevenzione della visualizzazione dei collegamenti ipertestuali. Sebbene Microsoft abbia già implementato alcune correzioni, i dettagli di queste misure rimangono segreti, il che è motivo di preoccupazione.

La risposta dell’azienda alla vulnerabilità identificata ha avuto parzialmente successo: alcuni exploit non funzionano più. Tuttavia, la mancanza di informazioni dettagliate sulle correzioni applicate lascia dubbi sulla totale sicurezza dello strumento.

Questo caso evidenzia la complessità di garantire la sicurezza negli strumenti basati sull’intelligenza artificiale e la necessità di ulteriore collaborazione e trasparenza per proteggersi dalle minacce future

Redazione
La redazione di Red Hot Cyber è composta da un insieme di persone fisiche e fonti anonime che collaborano attivamente fornendo informazioni in anteprima e news sulla sicurezza informatica e sull'informatica in generale.