
Alla luce della spinta del Dipartimento della Difesa degli Stati Uniti per modernizzare le sue forze armate con droni e sistemi d’arma completamente autonomi, i critici hanno sollevato preoccupazioni su una possibile nuova corsa agli armamenti che potrebbe aumentare significativamente il rischio di distruzione di massa, guerra nucleare e vittime civili.
L’iniziativa, denominata Replicator, rappresenta un grande sforzo per scalare le tecnologie esistenti per creare un futuro militare in cui sistemi completamente autonomi saranno incorporati in droni volanti, aerei, moto d’acqua e sistemi di difesa, collegati tramite un centro informatico per la sincronizzazione e la gestione dei dipartimenti.
I critici chiamano le armi autonome “robot assassini” perché sono armi controllate dall’intelligenza artificiale e possono tecnicamente distruggere gli obiettivi da soli senza l’assistenza umana. Tuttavia, non esistono trattati internazionali che regolano l’uso di tali armi, il che ha sollevato preoccupazioni tra i gruppi per i diritti umani.
Anna Hair, responsabile della ricerca sulle armi autonome presso il Future of Life Institute, ha dichiarato: “Stiamo iniziando ad aprire questo vaso di Pandora e sarà molto difficile tornare indietro”.
Il vice segretario alla Difesa Kathleen Hicks ha annunciato per la prima volta Replicator alla fine di agosto in una conferenza sulla difesa a Washington, definendolo un’iniziativa “game changer” che contrasta le crescenti ambizioni della Cina. Ha anche affermato che l’iniziativa rispetterà le linee guida etiche per i sistemi completamente autonomi.
Le preoccupazioni principali sono che la decisione di entrare in guerra potrebbe essere più facile da prendere se il mondo dipendesse fortemente dalle armi basate sull’intelligenza artificiale.
Queste linee guida si basano sulle direttive sulla guerra AI del Pentagono, aggiornate nel gennaio 2023.
Sono progettati per garantire che i comandanti senior e i decisori esaminino e approvino attentamente le nuove armi. Secondo questa politica, prima che un sistema d’arma AI possa usare la forza, è necessario il contributo umano per prendere una decisione.
Il rapporto del Congressional Research Service evidenzia che non è sempre applicabile in contesti diversi. Si afferma inoltre che l’espressione “giudizio umano sull’uso della forza” non implica un coinvolgimento umano diretto, ma si riferisce a decisioni generali sull’impiego delle forze.
Nel 2018, FLI ha pubblicato una petizione chiedendo il divieto di qualsiasi arma autonoma che uccida una persona senza operatore umano. Ad oggi la petizione è stata firmata da 274 organizzazioni e quasi 4.000 persone.
La lettera FLI del 2016 chiedeva il divieto totale delle armi offensive al di fuori del controllo umano. È stato firmato da più di 34.000 persone, tra cui il miliardario della tecnologia Elon Musk e il fisico teorico Stephen Hawking.
L’Alleanza per la sicurezza occidentale, la NATO, ha stabilito alcuni standard per l’uso di armi autonome, compreso l’obbligo di attaccare solo obiettivi militari legittimi.
Ma i funzionari della NATO riconoscono che non è chiaro “quando e dove la legge richiede la presenza umana nel ciclo decisionale” e “quanto ampio sia il ciclo decisionale”.
Sebbene almeno 30 paesi abbiano chiesto il divieto dei sistemi autonomi letali, le Nazioni Unite (ONU) non hanno ancora ratificato alcun trattato che disciplina le armi autonome e ad oggi non esiste una definizione concordata di queste armi.
Il segretario generale delle Nazioni Unite Antonio Guterres ha chiesto un accordo giuridicamente vincolante entro il 2026 per limitare l’uso della tecnologia e vietare l’uso di armi letali autonome senza la supervisione umana. La Convenzione delle Nazioni Unite su alcune armi convenzionali si occupa di questo tema dal 2013.
Ti è piaciuto questo articolo? Ne stiamo discutendo nella nostra Community su LinkedIn, Facebook e Instagram. Seguici anche su Google News, per ricevere aggiornamenti quotidiani sulla sicurezza informatica o Scrivici se desideri segnalarci notizie, approfondimenti o contributi da pubblicare.

InnovazioneL’evoluzione dell’Intelligenza Artificiale ha superato una nuova, inquietante frontiera. Se fino a ieri parlavamo di algoritmi confinati dietro uno schermo, oggi ci troviamo di fronte al concetto di “Meatspace Layer”: un’infrastruttura dove le macchine non…
CybercrimeNegli ultimi anni, la sicurezza delle reti ha affrontato minacce sempre più sofisticate, capaci di aggirare le difese tradizionali e di penetrare negli strati più profondi delle infrastrutture. Un’analisi recente ha portato alla luce uno…
VulnerabilitàNegli ultimi tempi, la piattaforma di automazione n8n sta affrontando una serie crescente di bug di sicurezza. n8n è una piattaforma di automazione che trasforma task complessi in operazioni semplici e veloci. Con pochi click…
InnovazioneArticolo scritto con la collaborazione di Giovanni Pollola. Per anni, “IA a bordo dei satelliti” serviva soprattutto a “ripulire” i dati: meno rumore nelle immagini e nei dati acquisiti attraverso i vari payload multisensoriali, meno…
Cyber ItaliaNegli ultimi giorni è stato segnalato un preoccupante aumento di truffe diffuse tramite WhatsApp dal CERT-AGID. I messaggi arrivano apparentemente da contatti conosciuti e richiedono urgentemente denaro, spesso per emergenze come spese mediche improvvise. La…