Red Hot Cyber
Sicurezza Informatica, Notizie su Cybercrime e Analisi Vulnerabilità

Don’t Spy EU: il progetto che mira a contrastare le tentazioni dell’impiego di AI nella sorveglianza di massa.

5 Novembre 2023 09:11

Avevamo già affrontato il tema delle tentazioni del tecnocontrollo grazie ad un’intervista agli attivisti di Privacy Pride riguardante ChatControl. Ora, vista la situazione geopolitica corrente, è chiaro che una possibile crepa nei diritti fondamentali potrebbe rischiosamente o essere sottostimata o ignorata da parte di policy maker europei. Anche grazie alle facili polarizzazioni che è possibile creare in virtù dello stato d’emergenza che muta rapidamente in stato d’eccezione anche grazie alle promesse, spesso indimostrate, di sicurezza che sono in grado di affascinare più che di convincere. Ma in fondo tanto basta per concludere una vendita o realizzare un’azione di lobbying.

Il progetto Don’t Spy EU vuole portare all’attenzione del pubblico tutti i rischi della sorveglianza di massa che potrebbe essere realizzata tramite il riconoscimento facciale con impiego di AI. Vero è che al momento attuale l’AI Act esclude l’impiego di sistemi di Remote Biometric Identification (RBI) in tempo reale in spazi accessibili al pubblico a fini di attività di contrasto, ma possono esserci delle eccezioni e scappatoie. Innanzitutto, la definizione che viene proposta:

“sistema di identificazione biometrica remota”: un sistema di IA finalizzato all’identificazione a distanza di persone fisiche mediante il confronto dei dati biometrici di una persona con i dati biometrici contenuti in una banca dati di riferimento, e senza che l’utente del sistema di IA sappia in anticipo se la persona sarà presente e può essere identificata;

comporta il rischio che vengano escluse talune forme di RBI comunque negativamente impattanti sui diritti fondamentali dei cittadini. L’impiego del termine “a distanza”, inoltre, comporta un’incertezza definitoria piuttosto significativa.

Inoltre, gli ampi margini di deroga offerti nella norma dedicata alle pratiche di AI vietate, dopo un “a meno che e nella misura in cui tale uso sia strettamente necessario per uno dei seguenti obiettivi”, più che un’eccezione sembrano introdurre in via surrettizia un framework normativo. Si può ben ritenere infatti che lo scopo di vietare per non consentire un largo impiego di taluni sistemi quali quelli di RBI sia più cosmetico, negli intenti della legge e nella rubrica, che nella sua successiva e più che prevedibile applicazione.

Le preoccupazioni degli attivisti sul punto sono infatti piuttosto chiare:

As of now, predictive policing tools, real-time remote face recognition and biometric identification in public spaces are forbidden, and the AI Act’s current version maintains this ban as well.
However, exceptions will be granted for ex-post technologies employed in the prosecution of serious crimes and under judicial authorization; law enforcement will also be able to use predictive policing algorithms that analyse personal data in order to identify potential future offenders. And who gets to determine who could turn into an “offender”?

L’azione intrapresa – che può ben essere ricondotta nel novero dell’ethical trolling, ovverosia una provocazione svolta a fin di bene – consiste nella possibilità offerta agli utenti di caricare fotto dei politici e sottoporle alle scansioni di un algoritmo di riconoscimento facciale. Insomma: si fornisce un’anticipazione di un possibile futuro che essi stessi potrebbero realizzare attraverso questo complesso iter normativo.

Ever wondered what living under AI surveillance in Europe would feel like?
Don’t Spy EU allows you to scan the faces of European lawmakers through a face recognition algorithm.
They’re the ones in charge of finalizing the AI Act, so let’s make sure they fully understand the risks of biometric surveillance.

Viene da chiedersi come mai non ci sia sufficiente clamore mediatico a riguardo. Giovandoci di Occam, potremmo arrivare alla conclusione che l’argomento non sia di sufficiente interesse per il pubblico e destinato a giacere all’interno di determinate bolle informative. Piuttosto, viene da domandarsi come mai e con quali metodi si sia creato questo generale disinteresse diffuso e un’analoga inadeguatezza della classe politica nell’essere un effettivo baluardo dei diritti fondamentali dei cittadini. Soprattutto quando si parla di nuovi orizzonti tecnologici.

Probabilmente è al contempo merito di chi agisce come portatore d’interesse e demerito di chi invece dovrebbe svolgere un ruolo di tutela. A pensar male, si sa, si fa peccato. Raramente, però, si sbaglia,

Ti è piaciuto questo articolo? Ne stiamo discutendo nella nostra Community su LinkedIn, Facebook e Instagram. Seguici anche su Google News, per ricevere aggiornamenti quotidiani sulla sicurezza informatica o Scrivici se desideri segnalarci notizie, approfondimenti o contributi da pubblicare.

Stefano Gazzella 300x300
Privacy Officer e Data Protection Officer, è Of Counsel per Area Legale. Si occupa di protezione dei dati personali e, per la gestione della sicurezza delle informazioni nelle organizzazioni, pone attenzione alle tematiche relative all’ingegneria sociale. Responsabile del comitato scientifico di Assoinfluencer, coordina le attività di ricerca, pubblicazione e divulgazione. Giornalista pubblicista, scrive su temi collegati a diritti di quarta generazione, nuove tecnologie e sicurezza delle informazioni.
Aree di competenza: Privacy, GDPR, Data Protection Officer, Legal tech, Diritti, Meme
Visita il sito web dell'autore

Articoli in evidenza

Immagine del sitoCybercrime
Campagna di phishing su Signal in Europa: sospetto coinvolgimento di attori statali
Bajram Zeqiri - 07/02/2026

Le autorità tedesche hanno recentemente lanciato un avviso riguardante una sofisticata campagna di phishing che prende di mira gli utenti di Signal in Germania e nel resto d’Europa. L’attacco si concentra su profili specifici, tra…

Immagine del sitoInnovazione
Robot in cerca di carne: Quando l’AI affitta periferiche. Il tuo corpo!
Silvia Felici - 06/02/2026

L’evoluzione dell’Intelligenza Artificiale ha superato una nuova, inquietante frontiera. Se fino a ieri parlavamo di algoritmi confinati dietro uno schermo, oggi ci troviamo di fronte al concetto di “Meatspace Layer”: un’infrastruttura dove le macchine non…

Immagine del sitoCybercrime
DKnife: il framework di spionaggio Cinese che manipola le reti
Pietro Melillo - 06/02/2026

Negli ultimi anni, la sicurezza delle reti ha affrontato minacce sempre più sofisticate, capaci di aggirare le difese tradizionali e di penetrare negli strati più profondi delle infrastrutture. Un’analisi recente ha portato alla luce uno…

Immagine del sitoVulnerabilità
Così tante vulnerabilità in n8n tutti in questo momento. Cosa sta succedendo?
Agostino Pellegrino - 06/02/2026

Negli ultimi tempi, la piattaforma di automazione n8n sta affrontando una serie crescente di bug di sicurezza. n8n è una piattaforma di automazione che trasforma task complessi in operazioni semplici e veloci. Con pochi click…

Immagine del sitoInnovazione
L’IA va in orbita: Qwen 3, Starcloud e l’ascesa del calcolo spaziale
Sergio Corpettini - 06/02/2026

Articolo scritto con la collaborazione di Giovanni Pollola. Per anni, “IA a bordo dei satelliti” serviva soprattutto a “ripulire” i dati: meno rumore nelle immagini e nei dati acquisiti attraverso i vari payload multisensoriali, meno…