Red Hot Cyber
Condividi la tua difesa. Incoraggia l'eccellenza. La vera forza della cybersecurity risiede nell'effetto moltiplicatore della conoscenza.
Condividi la tua difesa. Incoraggia l'eccellenza.
La vera forza della cybersecurity risiede
nell'effetto moltiplicatore della conoscenza.
Fortinet 970x120px
Banner Ancharia Mobile 1
Il NIST svela gli attacchi all’Intelligenza Artificiale e pubblica delle strategie e raccomandazioni

Il NIST svela gli attacchi all’Intelligenza Artificiale e pubblica delle strategie e raccomandazioni

6 Gennaio 2024 10:32

I sistemi di intelligenza artificiale, sono già penetrati nella società moderna, lavorando in vari settori. Dalla guida autonoma, alle diagnosi di malattie e all’interazione con i clienti come chatbot online.

Per imparare come eseguire questi compiti, i chatbot vengono addestrati su enormi quantità di dati. Tuttavia, uno dei problemi principali è che proprio questi dati possono essere inaffidabili. Gli aggressori hanno molte opportunità per corromperli. Questo sia durante il periodo di addestramento del sistema AI che successivamente.

Un sistema di intelligenza artificiale può funzionare male se un avversario trova il modo di confondere il suo processo decisionale. (Fonte NIST)

Il National Institute of Standards and Technology (NIST) degli Stati Uniti ha pubblicato un elenco di raccomandazioni. Tali raccomandazioni aiutano a comprendere come contrastare gli attacchi informatici volti a manipolare il comportamento dei sistemi delle IA. Ciascun tipo di attacco di questo tipo è stato discusso in dettaglio in un lavoro scientifico separato. Il titolo è “Adversarial Machine Learning: tassonomia e terminologia di attacchi e rimedi”.

I principali attacchi ai modelli di intelligenza artificiale


Cyber Offensive Fundamentale Ethical Hacking 02

Avvio delle iscrizioni al corso Cyber Offensive Fundamentals
Vuoi smettere di guardare tutorial e iniziare a capire davvero come funziona la sicurezza informatica?
La base della sicurezza informatica, al di là di norme e tecnologie, ha sempre un unico obiettivo: fermare gli attacchi dei criminali informatici. Pertanto "Pensa come un attaccante, agisci come un difensore". Ti porteremo nel mondo dell'ethical hacking e del penetration test come nessuno ha mai fatto prima. Per informazioni potete accedere alla pagina del corso oppure contattarci tramite WhatsApp al numero 379 163 8765 oppure scrivendoci alla casella di posta [email protected].


Supporta Red Hot Cyber attraverso: 

  1. L'acquisto del fumetto sul Cybersecurity Awareness
  2. Ascoltando i nostri Podcast
  3. Seguendo RHC su WhatsApp
  4. Seguendo RHC su Telegram
  5. Scarica gratuitamente “Byte The Silence”, il fumetto sul Cyberbullismo di Red Hot Cyber

Se ti piacciono le novità e gli articoli riportati su di Red Hot Cyber, iscriviti immediatamente alla newsletter settimanale per non perdere nessun articolo. La newsletter generalmente viene inviata ai nostri lettori ad inizio settimana, indicativamente di lunedì.

I ricercatori del NIST hanno identificato i seguenti tipi di attacchi che possono manipolare il funzionamento dei sistemi di intelligenza artificiale.

  • Attacchi di evasione. Questi attacchi si verificano dopo che il sistema di intelligenza artificiale è stato implementato. Hanno lo scopo di modificare i dati di input al fine di distorcere la risposta del sistema. Ad esempio, distorcere fisicamente i segnali stradali in modo che un’auto a guida autonoma li interpreti erroneamente e possa leggere erroneamente il limite di velocità su un tratto stradale o comunque creare una situazione di emergenza;
  • Attacchi di avvelenamento. Questi attacchi vengono effettuati nella fase di addestramento dell’IA, quando nei dati di addestramento vengono introdotte informazioni deliberatamente distorte. Ad esempio, includere grandi quantità di linguaggio osceno nelle registrazioni delle conversazioni in modo che il chatbot inizi a percepire il linguaggio osceno come la norma da utilizzare nell’interazione con i clienti. I rischi reputazionali e i costi di riqualificazione di un modello possono rendere questo tipo di attacco altamente distruttivo per molte aziende;
  • Attacchi alla privacy. Questi attacchi avvengono durante l’utilizzo del sistema e hanno lo scopo di estrarre informazioni sensibili sul sistema AI stesso o sui dati su cui è stato addestrato, per un successivo utilizzo improprio. Ad esempio, un utente malintenzionato potrebbe porre a un chatbot una serie di domande legittime e quindi utilizzare le risposte per ricostruire il modello per rivelarne i punti deboli o le ipotesi sulle sue fonti di informazione;
  • Attacchi di Abuso. Questi attacchi comportano l’inserimento di informazioni errate in una fonte, come una pagina web o un documento online, che l’IA percepisce poi come valide. A differenza dell’avvelenamento, gli attacchi di abuso colpiscono i contenuti a cui accede il modello AI in tempo reale, ad esempio attraverso un motore di ricerca. Tali attacchi cercano di fornire all’IA informazioni errate provenienti da una fonte legittima ma compromessa al fine di modificare la destinazione d’uso del sistema AI.

“La maggior parte di questi attacchi sono abbastanza facili da organizzare. Richiedono una conoscenza minima del sistema artificiale”. Ha spiegato la coautrice dello studio Alina Oprea, professoressa alla Northeastern University negli Stati Uniti.

La Mitigazione dei rischi parte da Controllo e collaborazione

Per mitigare le minacce associate alla manipolazione dei sistemi di IA, gli esperti del NIST raccomandano un approccio globale. Questo include test approfonditi e aggiornamento continui dei sistemi di IA, il monitoraggio costante dei dati di input e delle reazioni del sistema, lo sviluppo di algoritmi specializzati per rilevare gli attacchi, la creazione di sistemi di protezione e backup multilivello, la collaborazione con la comunità di esperti per condividere conoscenze e informazioni sulle nuove minacce, nonché sensibilizzare e formare il personale che lavora con l’intelligenza artificiale. 

Queste misure mirano a ridurre al minimo i rischi e ad aumentare la resistenza dei sistemi di intelligenza artificiale alle suddette forme di attacchi manipolativi.

Il rapporto del NIST non solo rivela i potenziali rischi associati allo sfruttamento dell’intelligenza artificiale, ma incoraggia anche sviluppatori e ricercatori a trovare modi nuovi e più efficaci per proteggersi. Ciò, a sua volta, contribuisce allo sviluppo di uno spazio digitale più sicuro in cui l’intelligenza artificiale può servire la società senza la minaccia di manipolazioni e abusi esterni, pur mantenendo l’integrità e la riservatezza dei dati trattati.

Ti è piaciuto questo articolo? Ne stiamo discutendo nella nostra Community su LinkedIn, Facebook e Instagram. Seguici anche su Google News, per ricevere aggiornamenti quotidiani sulla sicurezza informatica o Scrivici se desideri segnalarci notizie, approfondimenti o contributi da pubblicare.

Cropped RHC 3d Transp2 1766828557 300x300
La redazione di Red Hot Cyber è composta da professionisti del settore IT e della sicurezza informatica, affiancati da una rete di fonti qualificate che operano anche in forma riservata. Il team lavora quotidianamente nell’analisi, verifica e pubblicazione di notizie, approfondimenti e segnalazioni su cybersecurity, tecnologia e minacce digitali, con particolare attenzione all’accuratezza delle informazioni e alla tutela delle fonti. Le informazioni pubblicate derivano da attività di ricerca diretta, esperienza sul campo e contributi provenienti da contesti operativi nazionali e internazionali.

Articoli in evidenza

Immagine del sitoVulnerabilità
WhisperPair: un bug critico mette a rischio milioni di dispositivi Bluetooth
Redazione RHC - 19/01/2026

I ricercatori del team di Sicurezza Informatica e Crittografia Industriale della KU Leuven hanno scoperto una falla critica nel protocollo Google Fast Pair. La vulnerabilità consente agli aggressori di dirottare il controllo di milioni di…

Immagine del sitoCyberpolitica
LinkedIn nel mirino dello spionaggio cinese: l’allerta del MI5 al Parlamento
Redazione RHC - 19/01/2026

Nel mese di novembre il Servizio di Sicurezza britannico (MI5) ha inviato un avviso riservato a parlamentari e membri del loro staff per segnalare un’operazione di cyber-spionaggio riconducibile ad attori legati ai servizi segreti cinesi…

Immagine del sitoCybercrime
Zero-click su Android: il punto debole nascosto nei decoder audio
Redazione RHC - 18/01/2026

Le moderne funzioni di analisi automatica dei contenuti multimediali stanno modificando in profondità il modello di sicurezza degli smartphone. In particolare, la capacità dei dispositivi di elaborare allegati audio in modo proattivo, senza alcuna interazione…

Immagine del sitoCultura
Net-NTLMv1, Mandiant pubblica le tabelle che mostrano quanto sia ancora vulnerabile
Redazione RHC - 18/01/2026

Mandiant ha reso pubblico un ampio set di tabelle rainbow dedicate a Net-NTLMv1 con l’obiettivo di dimostrare in modo concreto quanto questo protocollo di autenticazione sia ormai insicuro. Nonostante Net-NTLMv1 sia deprecato da anni e…

Immagine del sitoCybercrime
Ucraina e Germania smantellano Black Basta? 2 arresti per ransomware, coinvolto un russo
Redazione RHC - 17/01/2026

Quando si parla di cybersecurity, non è raro imbattersi in notizie che sembrano prese da un film di fantascienza. Eppure, la realtà è ancora più sorprendente e a volte inquietante. La storia dei due cittadini…