Red Hot Cyber
Sicurezza Informatica, Notizie su Cybercrime e Analisi Vulnerabilità

ASCII Smuggling: come esfiltrare dati personali da Microsoft Copilot

28 Agosto 2024 20:39

Un ricercatore di sicurezza informatica ha scoperto una vulnerabilità critica nell’assistente AI integrato di Microsoft 365 , Copilot, che potrebbe consentire agli aggressori di rubare dati sensibili.

L’exploit, precedentemente presentato al Microsoft Security Response Center (MSRC), combina diverse tecniche sofisticate per creare rischi per la sicurezza dei dati e la privacy. La vulnerabilità è stata scoperta attraverso una ricerca pubblicata dal team Embrace The Red.

L’exploit è un attacco in più fasi. Inizia con la ricezione da parte dell’utente di un’e-mail o di un documento dannoso contenente istruzioni nascoste. Quando queste istruzioni vengono elaborate da Copilot, lo strumento si attiva automaticamente e inizia a cercare ulteriori email e documenti, aumentando la portata dell’attacco senza l’intervento dell’utente.

L’elemento chiave di questo exploit è il cosiddetto ASCII Smuggling. Questa tecnica utilizza caratteri Unicode speciali per rendere i dati invisibili all’utente. Gli aggressori possono incorporare informazioni sensibili in collegamenti ipertestuali che, se cliccati, inviano dati ai server che essi controllano.

Lo studio ha dimostrato una situazione in cui un documento Word contenente istruzioni appositamente progettate era in grado di indurre Microsoft Copilot a eseguire azioni coerenti con un’attività fraudolenta. Questo documento utilizzava la tecnica “Prompt Injection” , che consentiva di iniettare nel testo comandi, percepiti da Copilot come richieste legittime.

Quando Copilot ha elaborato questo documento, ha iniziato a eseguire le azioni in esso specificate, come se fossero normali comandi utente. Di conseguenza, lo strumento avviava automaticamente azioni che potevano portare alla fuga di informazioni riservate o ad altri tipi di frode, senza alcun preavviso all’utente.

L’ultima fase dell’attacco è l’esfiltrazione dei dati. Controllando Copilot e ottenendo l’accesso a dati aggiuntivi, gli aggressori hanno incorporato informazioni nascoste in collegamenti ipertestuali che vengono poi inviati a server esterni quando gli utenti fanno clic.

Per ridurre il rischio, il ricercatore ha suggerito a Microsoft una serie di misure, tra cui la disattivazione dell’interpretazione dei tag Unicode e la prevenzione della visualizzazione dei collegamenti ipertestuali. Sebbene Microsoft abbia già implementato alcune correzioni, i dettagli di queste misure rimangono segreti, il che è motivo di preoccupazione.

La risposta dell’azienda alla vulnerabilità identificata ha avuto parzialmente successo: alcuni exploit non funzionano più. Tuttavia, la mancanza di informazioni dettagliate sulle correzioni applicate lascia dubbi sulla totale sicurezza dello strumento.

Questo caso evidenzia la complessità di garantire la sicurezza negli strumenti basati sull’intelligenza artificiale e la necessità di ulteriore collaborazione e trasparenza per proteggersi dalle minacce future

Ti è piaciuto questo articolo? Ne stiamo discutendo nella nostra Community su LinkedIn, Facebook e Instagram. Seguici anche su Google News, per ricevere aggiornamenti quotidiani sulla sicurezza informatica o Scrivici se desideri segnalarci notizie, approfondimenti o contributi da pubblicare.

Cropped RHC 3d Transp2 1766828557 300x300
La Redazione di Red Hot Cyber fornisce aggiornamenti quotidiani su bug, data breach e minacce globali. Ogni contenuto è validato dalla nostra community di esperti come Pietro Melillo, Massimiliano Brolli, Sandro Sana, Olivia Terragni e Stefano Gazzella. Grazie alla sinergia con i nostri Partner leader nel settore (tra cui Accenture, CrowdStrike, Trend Micro e Fortinet), trasformiamo la complessità tecnica in consapevolezza collettiva, garantendo un'informazione accurata basata sull'analisi di fonti primarie e su una rigorosa peer-review tecnica.

Articoli in evidenza

Immagine del sitoInnovazione
Robot in cerca di carne: Quando l’AI affitta periferiche. Il tuo corpo!
Silvia Felici - 06/02/2026

L’evoluzione dell’Intelligenza Artificiale ha superato una nuova, inquietante frontiera. Se fino a ieri parlavamo di algoritmi confinati dietro uno schermo, oggi ci troviamo di fronte al concetto di “Meatspace Layer”: un’infrastruttura dove le macchine non…

Immagine del sitoCybercrime
DKnife: il framework di spionaggio Cinese che manipola le reti
Pietro Melillo - 06/02/2026

Negli ultimi anni, la sicurezza delle reti ha affrontato minacce sempre più sofisticate, capaci di aggirare le difese tradizionali e di penetrare negli strati più profondi delle infrastrutture. Un’analisi recente ha portato alla luce uno…

Immagine del sitoVulnerabilità
Così tante vulnerabilità in n8n tutti in questo momento. Cosa sta succedendo?
Agostino Pellegrino - 06/02/2026

Negli ultimi tempi, la piattaforma di automazione n8n sta affrontando una serie crescente di bug di sicurezza. n8n è una piattaforma di automazione che trasforma task complessi in operazioni semplici e veloci. Con pochi click…

Immagine del sitoInnovazione
L’IA va in orbita: Qwen 3, Starcloud e l’ascesa del calcolo spaziale
Sergio Corpettini - 06/02/2026

Articolo scritto con la collaborazione di Giovanni Pollola. Per anni, “IA a bordo dei satelliti” serviva soprattutto a “ripulire” i dati: meno rumore nelle immagini e nei dati acquisiti attraverso i vari payload multisensoriali, meno…

Immagine del sitoCyber Italia
Truffe WhatsApp: “Prestami dei soldi”. Il messaggio che può svuotarti il conto
Silvia Felici - 06/02/2026

Negli ultimi giorni è stato segnalato un preoccupante aumento di truffe diffuse tramite WhatsApp dal CERT-AGID. I messaggi arrivano apparentemente da contatti conosciuti e richiedono urgentemente denaro, spesso per emergenze come spese mediche improvvise. La…