Google identifica 6 principali attacchi che possono affliggere l'intelligenza artificiale. Occorre preparare i Red Team
Red Hot Cyber
Condividi la tua difesa. Incoraggia l'eccellenza. La vera forza della cybersecurity risiede nell'effetto moltiplicatore della conoscenza.
Condividi la tua difesa. Incoraggia l'eccellenza.
La vera forza della cybersecurity risiede
nell'effetto moltiplicatore della conoscenza.
2nd Edition GlitchZone RHC 970x120 2
Banner Mobile
Google identifica 6 principali attacchi che possono affliggere l’intelligenza artificiale. Occorre preparare i Red Team

Google identifica 6 principali attacchi che possono affliggere l’intelligenza artificiale. Occorre preparare i Red Team

23 Luglio 2023 16:06

I ricercatori di Google hanno identificato 6 tipi di attacchi ai sistemi di intelligenza artificiale, tra cui la manipolazione dei modelli di linguaggio di grandi dimensioni (Large Language ModelLLM), utilizzati, ad esempio, in ChatGPT e Google Bard. 

Tali attacchi possono portare a risultati imprevisti o dannosi, dalla semplice apparizione di foto di una persona comune su un sito di celebrità, a gravi violazioni della sicurezza come il phishing e il furto di dati.

Tra i vettori di attacco rilevati:

  1. Prompt Attack : un utente malintenzionato può creare query efficienti che costringono i modelli LLM a eseguire le azioni desiderate. Ad esempio, l’inserimento di un paragrafo invisibile all’utente nel corpo di un’e-mail di phishing scritta dall’intelligenza artificiale potrebbe aggirare la sicurezza dell’e-mail.
  2. Training data extraction : l’attacco mira a ricreare gli esempi di addestramento utilizzati da LLM. Ad esempio, un utente malintenzionato potrebbe estrarre dati personali o password dai dati di addestramento.
  3. Backdooring the modello : un criminale informatico può tentare di modificare di nascosto il comportamento del modello in modo che produca risultati errati quando viene attivato un determinato “trigger”. Ad esempio, un utente malintenzionato può nascondere codice dannoso in un modello o nel relativo output.
  4. Adversarial examples : questi sono input che un utente malintenzionato fornisce a un modello per produrre “output deterministico ma completamente inaspettato”. Ad esempio, un modello può mostrare un’immagine che significa una cosa per l’occhio umano, ma il modello la riconosce come completamente diversa.
  5. Data poisoning : un malintenzionato può manipolare i dati di addestramento del modello per influenzare l’output del modello in base alle sue preferenze. L’attacco può anche rappresentare una minaccia per la supply chain se gli sviluppatori utilizzano l’intelligenza artificiale nello sviluppo del software.
  6. Exfiltration : un utente malintenzionato può copiare il file system di un modello per rubare la proprietà intellettuale al suo interno memorizzata. Il malintenzionato può quindi utilizzare queste informazioni per creare i propri modelli che forniscono funzionalità uniche in attacchi personalizzati.

Google sottolinea l’importanza di utilizzare metodi tradizionali di sicurezza e red-teaming (Red Team) per garantire la protezione dei sistemi di intelligenza artificiale. 

I ricercatori notano inoltre che la combinazione più efficace di questi metodi con competenze nel campo dell’IA crea sistemi di protezione affidabili. 

Nel loro rapporto, i ricercatori hanno sottolineato che le attività di red team e le simulazioni di attacco possono svolgere un ruolo fondamentale nella preparazione di ogni organizzazione agli attacchi ai sistemi di intelligenza artificiale.

Seguici su Google News, LinkedIn, Facebook e Instagram per ricevere aggiornamenti quotidiani sulla sicurezza informatica. Scrivici se desideri segnalarci notizie, approfondimenti o contributi da pubblicare.

Immagine del sito
Redazione

La redazione di Red Hot Cyber è composta da un insieme di persone fisiche e fonti anonime che collaborano attivamente fornendo informazioni in anteprima e news sulla sicurezza informatica e sull'informatica in generale.

Lista degli articoli

Articoli in evidenza

Immagine del sito
Sbarca sul Dark Web DIG AI! Senza Account, Senza costi e … senza nessuna censura
Redazione RHC - 21/12/2025

Un nuovo strumento AI è apparso sul dark web e ha rapidamente attirato l’attenzione degli esperti di sicurezza, e non per le migliori ragioni. Si tratta di un servizio di intelligenza artificiale chiamato DIG AI,…

Immagine del sito
Il cloud USA può diventare un’arma geopolitica? Airbus inizia a “cambiare rotta”
Redazione RHC - 21/12/2025

Negli ultimi mesi, una domanda sta emergendo con sempre maggiore insistenza nei board aziendali europei: il cloud statunitense è davvero sicuro per tutte le aziende? Soprattutto per quelle realtà che operano in settori strategici o…

Immagine del sito
Kimwolf, la botnet che ha trasformato smart TV e decoder in un’arma globale
Redazione RHC - 20/12/2025

Un nuovo e formidabile nemico è emerso nel panorama delle minacce informatiche: Kimwolf, una temibile botnet DDoS, sta avendo un impatto devastante sui dispositivi a livello mondiale. Le conseguenze di questa minaccia possono essere estremamente…

Immagine del sito
35 anni fa nasceva il World Wide Web: il primo sito web della storia
Redazione RHC - 20/12/2025

Ecco! Il 20 dicembre 1990, qualcosa di epocale successe al CERN di Ginevra. Tim Berners-Lee, un genio dell’informatica britannico, diede vita al primo sito web della storia. Si tratta di info.cern.ch, creato con l’obiettivo di…

Immagine del sito
ATM sotto tiro! 54 arresti in una gang che svuotava i bancomat con i malware
Redazione RHC - 20/12/2025

Una giuria federale del Distretto del Nebraska ha incriminato complessivamente 54 persone accusate di aver preso parte a una vasta operazione criminale basata sull’uso di malware per sottrarre milioni di dollari dagli sportelli automatici statunitensi.…