Red Hot Cyber
Condividi la tua difesa. Incoraggia l'eccellenza. La vera forza della cybersecurity risiede nell'effetto moltiplicatore della conoscenza.
Condividi la tua difesa. Incoraggia l'eccellenza.
La vera forza della cybersecurity risiede
nell'effetto moltiplicatore della conoscenza.
LECS 970x120 1
Banner Ancharia Mobile 1
Il NIST svela gli attacchi all’Intelligenza Artificiale e pubblica delle strategie e raccomandazioni

Il NIST svela gli attacchi all’Intelligenza Artificiale e pubblica delle strategie e raccomandazioni

6 Gennaio 2024 10:32

I sistemi di intelligenza artificiale, sono già penetrati nella società moderna, lavorando in vari settori. Dalla guida autonoma, alle diagnosi di malattie e all’interazione con i clienti come chatbot online.

Per imparare come eseguire questi compiti, i chatbot vengono addestrati su enormi quantità di dati. Tuttavia, uno dei problemi principali è che proprio questi dati possono essere inaffidabili. Gli aggressori hanno molte opportunità per corromperli. Questo sia durante il periodo di addestramento del sistema AI che successivamente.

Un sistema di intelligenza artificiale può funzionare male se un avversario trova il modo di confondere il suo processo decisionale. (Fonte NIST)

Il National Institute of Standards and Technology (NIST) degli Stati Uniti ha pubblicato un elenco di raccomandazioni. Tali raccomandazioni aiutano a comprendere come contrastare gli attacchi informatici volti a manipolare il comportamento dei sistemi delle IA. Ciascun tipo di attacco di questo tipo è stato discusso in dettaglio in un lavoro scientifico separato. Il titolo è “Adversarial Machine Learning: tassonomia e terminologia di attacchi e rimedi”.

I principali attacchi ai modelli di intelligenza artificiale

I ricercatori del NIST hanno identificato i seguenti tipi di attacchi che possono manipolare il funzionamento dei sistemi di intelligenza artificiale.

  • Attacchi di evasione. Questi attacchi si verificano dopo che il sistema di intelligenza artificiale è stato implementato. Hanno lo scopo di modificare i dati di input al fine di distorcere la risposta del sistema. Ad esempio, distorcere fisicamente i segnali stradali in modo che un’auto a guida autonoma li interpreti erroneamente e possa leggere erroneamente il limite di velocità su un tratto stradale o comunque creare una situazione di emergenza;
  • Attacchi di avvelenamento. Questi attacchi vengono effettuati nella fase di addestramento dell’IA, quando nei dati di addestramento vengono introdotte informazioni deliberatamente distorte. Ad esempio, includere grandi quantità di linguaggio osceno nelle registrazioni delle conversazioni in modo che il chatbot inizi a percepire il linguaggio osceno come la norma da utilizzare nell’interazione con i clienti. I rischi reputazionali e i costi di riqualificazione di un modello possono rendere questo tipo di attacco altamente distruttivo per molte aziende;
  • Attacchi alla privacy. Questi attacchi avvengono durante l’utilizzo del sistema e hanno lo scopo di estrarre informazioni sensibili sul sistema AI stesso o sui dati su cui è stato addestrato, per un successivo utilizzo improprio. Ad esempio, un utente malintenzionato potrebbe porre a un chatbot una serie di domande legittime e quindi utilizzare le risposte per ricostruire il modello per rivelarne i punti deboli o le ipotesi sulle sue fonti di informazione;
  • Attacchi di Abuso. Questi attacchi comportano l’inserimento di informazioni errate in una fonte, come una pagina web o un documento online, che l’IA percepisce poi come valide. A differenza dell’avvelenamento, gli attacchi di abuso colpiscono i contenuti a cui accede il modello AI in tempo reale, ad esempio attraverso un motore di ricerca. Tali attacchi cercano di fornire all’IA informazioni errate provenienti da una fonte legittima ma compromessa al fine di modificare la destinazione d’uso del sistema AI.

“La maggior parte di questi attacchi sono abbastanza facili da organizzare. Richiedono una conoscenza minima del sistema artificiale”. Ha spiegato la coautrice dello studio Alina Oprea, professoressa alla Northeastern University negli Stati Uniti.

La Mitigazione dei rischi parte da Controllo e collaborazione

Per mitigare le minacce associate alla manipolazione dei sistemi di IA, gli esperti del NIST raccomandano un approccio globale. Questo include test approfonditi e aggiornamento continui dei sistemi di IA, il monitoraggio costante dei dati di input e delle reazioni del sistema, lo sviluppo di algoritmi specializzati per rilevare gli attacchi, la creazione di sistemi di protezione e backup multilivello, la collaborazione con la comunità di esperti per condividere conoscenze e informazioni sulle nuove minacce, nonché sensibilizzare e formare il personale che lavora con l’intelligenza artificiale. 

Queste misure mirano a ridurre al minimo i rischi e ad aumentare la resistenza dei sistemi di intelligenza artificiale alle suddette forme di attacchi manipolativi.

Il rapporto del NIST non solo rivela i potenziali rischi associati allo sfruttamento dell’intelligenza artificiale, ma incoraggia anche sviluppatori e ricercatori a trovare modi nuovi e più efficaci per proteggersi. Ciò, a sua volta, contribuisce allo sviluppo di uno spazio digitale più sicuro in cui l’intelligenza artificiale può servire la società senza la minaccia di manipolazioni e abusi esterni, pur mantenendo l’integrità e la riservatezza dei dati trattati.

Ti è piaciuto questo articolo? Ne stiamo discutendo nella nostra Community su LinkedIn, Facebook e Instagram. Seguici anche su Google News, per ricevere aggiornamenti quotidiani sulla sicurezza informatica o Scrivici se desideri segnalarci notizie, approfondimenti o contributi da pubblicare.

Luca Vinciguerra 300x300
Machine Learning Engineer specializzato nel Natural Language Processing. Appassionato di Intelligenza Artificiale, Coding e tecnologia in generale. Aspetta l'avvento di Skynet.
Aree di competenza: Artificial Intelligence Engineer, Machine Learning & Deep Learning Specialist, Python Developer

Articoli in evidenza

Immagine del sitoCultura
Il ransomware non blocca i server, blocca il credito. Il lato finanziario della cybersecurity
Antonio Piovesan - 27/01/2026

C’è questa idea sbagliata, un po’ romantica volendo, per cui il ransomware è “roba da IT”: qualche server in crisi, due notti in bianco, poi si riparte e fine… La realtà, soprattutto per un’azienda quotata…

Immagine del sitoDiritti
Difesa attiva e hack back: il labirinto legale della cybersecurity
Paolo Galdieri - 27/01/2026

Nel precedente contributo abbiamo esplorato come la posizione di garanzia del professionista della cybersecurity si scontri con fattispecie classiche come l’accesso abusivo. Tuttavia, nella mia esperienza professionale e accademica, riscontro spesso una zona d’ombra ancora…

Immagine del sitoVulnerabilità
E che il phishing abbia inizio! Microsoft corre ai ripari per una zero-day già sfruttata in Office
Pietro Melillo - 27/01/2026

Ancora una volta Microsoft si è vista obbligata ad effettuare una rapida correzione di alcune falle. L’azienda ha rilasciato patch non programmate per Microsoft Office, risolvendo una pericolosa vulnerabilità zero-day già sfruttata in attacchi informatici.…

Immagine del sitoCyber News
ServiceNow sotto attacco: come un’email può spalancare le porte della tua azienda
Redazione RHC - 27/01/2026

La recente scoperta di una vulnerabilità nella piattaforma AI di ServiceNow ha scosso profondamente il settore della sicurezza informatica. Questa falla, caratterizzata da un punteggio di gravità estremamente elevato, ha permesso ad aggressori non autenticati…

Immagine del sitoCyber News
Scoperta Shock su Instagram: Post Privati Accessibili Senza Login!
Redazione RHC - 26/01/2026

La scoperta è avvenuta casualmente: navigando sulla versione web mobile di Instagram, Jatin Banga ha notato che i contenuti di alcuni profili privati erano visibili senza alcuna autorizzazione. Analizzando il traffico dati, ha individuato la…