Red Hot Cyber
Condividi la tua difesa. Incoraggia l'eccellenza. La vera forza della cybersecurity risiede nell'effetto moltiplicatore della conoscenza.
Condividi la tua difesa. Incoraggia l'eccellenza.
La vera forza della cybersecurity risiede
nell'effetto moltiplicatore della conoscenza.
HackTheBox 970x120 1
TM RedHotCyber 320x100 042514
Google identifica 6 principali attacchi che possono affliggere l’intelligenza artificiale. Occorre preparare i Red Team

Google identifica 6 principali attacchi che possono affliggere l’intelligenza artificiale. Occorre preparare i Red Team

23 Luglio 2023 16:06

I ricercatori di Google hanno identificato 6 tipi di attacchi ai sistemi di intelligenza artificiale, tra cui la manipolazione dei modelli di linguaggio di grandi dimensioni (Large Language ModelLLM), utilizzati, ad esempio, in ChatGPT e Google Bard. 

Tali attacchi possono portare a risultati imprevisti o dannosi, dalla semplice apparizione di foto di una persona comune su un sito di celebrità, a gravi violazioni della sicurezza come il phishing e il furto di dati.

Tra i vettori di attacco rilevati:

  1. Prompt Attack : un utente malintenzionato può creare query efficienti che costringono i modelli LLM a eseguire le azioni desiderate. Ad esempio, l’inserimento di un paragrafo invisibile all’utente nel corpo di un’e-mail di phishing scritta dall’intelligenza artificiale potrebbe aggirare la sicurezza dell’e-mail.
  2. Training data extraction : l’attacco mira a ricreare gli esempi di addestramento utilizzati da LLM. Ad esempio, un utente malintenzionato potrebbe estrarre dati personali o password dai dati di addestramento.
  3. Backdooring the modello : un criminale informatico può tentare di modificare di nascosto il comportamento del modello in modo che produca risultati errati quando viene attivato un determinato “trigger”. Ad esempio, un utente malintenzionato può nascondere codice dannoso in un modello o nel relativo output.
  4. Adversarial examples : questi sono input che un utente malintenzionato fornisce a un modello per produrre “output deterministico ma completamente inaspettato”. Ad esempio, un modello può mostrare un’immagine che significa una cosa per l’occhio umano, ma il modello la riconosce come completamente diversa.
  5. Data poisoning : un malintenzionato può manipolare i dati di addestramento del modello per influenzare l’output del modello in base alle sue preferenze. L’attacco può anche rappresentare una minaccia per la supply chain se gli sviluppatori utilizzano l’intelligenza artificiale nello sviluppo del software.
  6. Exfiltration : un utente malintenzionato può copiare il file system di un modello per rubare la proprietà intellettuale al suo interno memorizzata. Il malintenzionato può quindi utilizzare queste informazioni per creare i propri modelli che forniscono funzionalità uniche in attacchi personalizzati.

Christmas Sale

Christmas Sale -40%
𝗖𝗵𝗿𝗶𝘀𝘁𝗺𝗮𝘀 𝗦𝗮𝗹𝗲! Sconto del 𝟰𝟬% 𝘀𝘂𝗹 𝗽𝗿𝗲𝘇𝘇𝗼 𝗱𝗶 𝗰𝗼𝗽𝗲𝗿𝘁𝗶𝗻𝗮 del Corso "Dark Web & Cyber Threat Intelligence" in modalità E-Learning sulla nostra Academy!🚀 Fino al 𝟯𝟭 𝗱𝗶 𝗗𝗶𝗰𝗲𝗺𝗯𝗿𝗲, prezzi pazzi alla Red Hot Cyber Academy. 𝗧𝘂𝘁𝘁𝗶 𝗶 𝗰𝗼𝗿𝘀𝗶 𝘀𝗰𝗼𝗻𝘁𝗮𝘁𝗶 𝗱𝗲𝗹 𝟰𝟬% 𝘀𝘂𝗹 𝗽𝗿𝗲𝘇𝘇𝗼 𝗱𝗶 𝗰𝗼𝗽𝗲𝗿𝘁𝗶𝗻𝗮.
Per beneficiare della promo sconto Christmas Sale, scrivici ad [email protected] o contattaci su Whatsapp al numero di telefono: 379 163 8765.


Supporta Red Hot Cyber attraverso: 

  1. L'acquisto del fumetto sul Cybersecurity Awareness
  2. Ascoltando i nostri Podcast
  3. Seguendo RHC su WhatsApp
  4. Seguendo RHC su Telegram
  5. Scarica gratuitamente “Byte The Silence”, il fumetto sul Cyberbullismo di Red Hot Cyber

Se ti piacciono le novità e gli articoli riportati su di Red Hot Cyber, iscriviti immediatamente alla newsletter settimanale per non perdere nessun articolo. La newsletter generalmente viene inviata ai nostri lettori ad inizio settimana, indicativamente di lunedì.

Google sottolinea l’importanza di utilizzare metodi tradizionali di sicurezza e red-teaming (Red Team) per garantire la protezione dei sistemi di intelligenza artificiale. 

I ricercatori notano inoltre che la combinazione più efficace di questi metodi con competenze nel campo dell’IA crea sistemi di protezione affidabili. 

Nel loro rapporto, i ricercatori hanno sottolineato che le attività di red team e le simulazioni di attacco possono svolgere un ruolo fondamentale nella preparazione di ogni organizzazione agli attacchi ai sistemi di intelligenza artificiale.

Ti è piaciutno questo articolo? Ne stiamo discutendo nella nostra Community su LinkedIn, Facebook e Instagram. Seguici anche su Google News, per ricevere aggiornamenti quotidiani sulla sicurezza informatica o Scrivici se desideri segnalarci notizie, approfondimenti o contributi da pubblicare.

Cropped RHC 3d Transp2 1766828557 300x300
La redazione di Red Hot Cyber è composta da professionisti del settore IT e della sicurezza informatica, affiancati da una rete di fonti qualificate che operano anche in forma riservata. Il team lavora quotidianamente nell’analisi, verifica e pubblicazione di notizie, approfondimenti e segnalazioni su cybersecurity, tecnologia e minacce digitali, con particolare attenzione all’accuratezza delle informazioni e alla tutela delle fonti. Le informazioni pubblicate derivano da attività di ricerca diretta, esperienza sul campo e contributi provenienti da contesti operativi nazionali e internazionali.

Articoli in evidenza

Immagine del sitoCybercrime
La filiera Apple nel mirino degli hacker: incidente segnalato in Cina
Redazione RHC - 30/12/2025

Nel corso della prima metà di dicembre, un’azienda cinese impegnata nell’assemblaggio di dispositivi per Apple è stata colpita da un attacco informatico avanzato che potrebbe aver esposto informazioni sensibili legate a una linea produttiva. L’episodio…

Immagine del sitoCyber Italia
MEF nel mirino degli hacker? Un post su BreachForums ipotizza un accesso ai sistemi
Redazione RHC - 30/12/2025

Un post apparso su BreachForums, noto forum underground frequentato da attori della cybercriminalità informatica, ipotizza una presunta compromissione dei sistemi del Ministero dell’Economia e delle Finanze italiano (MEF). La segnalazione effettuata da un membro della…

Immagine del sitoCybercrime
MongoBleed (CVE-2025-14847): il database che “non perde”, sanguina
Sandro Sana - 29/12/2025

Analisi e correlazioni costruite anche grazie alla piattaforma Recorded Future (Insikt Group), che in questi casi è utile per mettere ordine nel caos tra segnali, rumor e priorità operative. C’è una tradizione natalizia che nessuno…

Immagine del sitoHacking
Login Microsoft 365 falsi, JavaScript offuscato e Cloudflare: anatomia di un phishing avanzato
Manuel Roccon - 29/12/2025

Questo articolo analizza una recente e sofisticata campagna di phishing che sfrutta la tecnica Browser-in-the-Browser (BitB) per rubare credenziali, in particolare quelle di servizi come Microsoft 365. L’attacco BitB si distingue per la sua capacità…

Immagine del sitoVulnerabilità
Uno sciame di Agenti AI trovano uno 0day da CVSS 10 nel firmware dei dispositivi Xspeeder
Redazione RHC - 29/12/2025

Quando si parla di sicurezza informatica, è facile cadere nella trappola di pensare che i problemi siano sempre lontani, che riguardino solo gli altri. Ma la realtà è che la vulnerabilità è sempre dietro l’angolo,…