Redazione RHC : 30 Maggio 2021 10:00
Un nuovo attacco contraddittorio, sviluppato dagli scienziati dell’Università del Maryland, College Park, può costringere i sistemi di apprendimento automatico (AI) a rallentare la loro elaborazione fino pressoché a fermarsi in alcune applicazioni.
Presentata alla Conferenza internazionale sulle rappresentazioni dell’apprendimento (ICLR), la tecnica neutralizza le tecniche di ottimizzazione che accelerano il funzionamento delle reti neurali profonde.
Vuoi diventare un esperto del Dark Web e della Cyber Threat Intelligence (CTI)?
Stiamo per avviare il corso intermedio in modalità "Live Class", previsto per febbraio.
A differenza dei corsi in e-learning, disponibili online sulla nostra piattaforma con lezioni pre-registrate, i corsi in Live Class offrono un’esperienza formativa interattiva e coinvolgente.
Condotti dal professor Pietro Melillo, le lezioni si svolgono online in tempo reale, permettendo ai partecipanti di interagire direttamente con il docente e approfondire i contenuti in modo personalizzato.
Questi corsi, ideali per aziende, consentono di sviluppare competenze mirate, affrontare casi pratici e personalizzare il percorso formativo in base alle esigenze specifiche del team, garantendo un apprendimento efficace e immediatamente applicabile.
Non perdere i nostri corsi e scrivi subito su WhatsApp al numero
379 163 8765
per richiedere informazioni
"
Supporta RHC attraverso:
Ti piacciono gli articoli di Red Hot Cyber? Non aspettare oltre, iscriviti alla newsletter settimanale per non perdere nessun articolo.
Le reti neurali profonde richiedono gigabyte di memoria e processori molto potenti, che non possono girare su dispositivi IoT, smartphone e dispositivi indossabili. Molti di questi dispositivi devono inviare i propri dati a un server cloud in grado di eseguire modelli di deep learning.
Per superare queste sfide, i ricercatori hanno inventato diverse tecniche per ottimizzare le reti neurali per piccoli dispositivi attraverso le cosiddette “architetture multiuscita”, una tecnica di ottimizzazione che fa sì che le reti neurali interrompano il calcolo non appena raggiungono una soglia accettabile.
“I modelli di uscita sono un concetto relativamente nuovo, ma c’è un interesse crescente”
ha detto al Daily Swig Tudor Dumitras, ricercatore presso l’Università del Maryland.
“Questo perché i modelli di deep learning stanno diventando sempre più costosi, dal punto di vista computazionale, e i ricercatori cercano modi per renderli più efficienti”.
Dumitras ei suoi collaboratori hanno sviluppato un attacco avversario di rallentamento che prende di mira l’efficacia delle reti neurali multiuscita. Chiamato DeepSloth, l’attacco apporta sottili modifiche ai dati di input per impedire alle reti neurali di uscire anticipatamente dal circuito e quindi costringerle a eseguire più calcoli del necessario.
“Gli attacchi di rallentamento hanno il potenziale di negare i vantaggi delle architetture multiuscita”
ha affermato Dumitras.
“Queste architetture possono dimezzare il consumo energetico di un modello DNN al momento dell’inferenza e abbiamo dimostrato che per qualsiasi input possiamo creare una perturbazione che cancelli completamente quei risparmi”.
I ricercatori hanno testato DeepSloth su varie architetture multiuscita.
Nei casi in cui gli aggressori avevano piena conoscenza dell’architettura del modello di destinazione, gli attacchi di rallentamento hanno ridotto l’efficacia dell’uscita anticipata del 90-100%. Ma anche quando l’attaccante non ha informazioni esatte sul modello bersaglio, DeepSloth ha comunque ridotto l’efficacia del 5-45%.
Questo è l’equivalente di un attacco DoS (Denial of Service) alle reti neurali.
Quando i modelli vengono serviti direttamente da un server, DeepSloth può occupare le risorse del server e impedirgli di utilizzarle secondo le sue necessità.
“In uno scenario tipico delle implementazioni IoT, in cui il modello è partizionato tra i dispositivi edge e il cloud, DeepSloth amplifica la latenza di 1,5-5 volte, annullando i vantaggi del partizionamento del modello”
ha affermato Dumitras.
Ciò potrebbe far sì che il dispositivo periferico non rispetti le scadenze critiche, ad esempio in un programma di monitoraggio per anziani che utilizza l’ intelligenza artificiale per rilevare rapidamente gli incidenti e richiedere aiuto se necessario “.
Fonte
Copyright @ 2003 – 2024 RED HOT CYBER
PIVA 16821691009