Redazione RHC : 16 Aprile 2024 07:13
Lo sapevamo. Dietro al bello di CHAT GPT e Midjourney, il potenziamento continuo di robotica e AI, progetti classificati venivano realizzati in tutto il mondo.
Droni autonomi, sistemi di controllo e di pianificazione delle operazioni e chissà quale altra diavoleria bolliva in pentola all’interno delle agenzie militari di questo pianeta.
Ora è il momento di togliere il sipario: benvenuti nella Guerra AI.
Acquista il corso Dark Web & Cyber Threat Intelligence (e-learning version)
Il Dark Web e la Cyber Threat Intelligence rappresentano aree critiche per comprendere le minacce informatiche moderne. Tra ransomware, data breach e attività illecite, le organizzazioni devono affrontare sfide sempre più complesse per proteggere i propri dati e le infrastrutture. Il nostro corso “Dark Web & Cyber Threat Intelligence” ti guiderà attraverso i meccanismi e le strategie utilizzate dai criminali informatici, fornendoti competenze pratiche per monitorare, analizzare e anticipare le minacce.
Accedi alla pagina del corso condotto dall'Prof. Pietro Melillo sulla nostra Academy e segui l'anteprima gratuita.
Per un periodo limitato, potrai utilizzare il COUPON CTI-16253 che ti darà diritto ad uno sconto del 20% sul prezzo di copertina del corso
Per ulteriori informazioni, scrivici ad [email protected] oppure scrivici su Whatsapp al 379 163 8765
Supporta RHC attraverso:
L’intelligenza artificiale sta svolgendo un ruolo importante, e secondo alcuni molto preoccupante, nella guerra di Israele a Gaza, con recenti rapporti investigativi che suggeriscono che l’esercito israeliano ha avviato un programma di intelligenza artificiale capace di prendere di mira migliaia di attivisti di Hamas nei primi giorni della guerra, e potrebbe aver avuto un ruolo nelle uccisioni sconsiderate e imprecise, nella distruzione dilagante e nelle migliaia di vittime civili.
L’esercito di occupazione israeliano respinge categoricamente questa affermazione, mentre un rapporto del sito web americano business insider fornisce uno sguardo terrificante su dove potrebbe portare la nuova guerra.
“La decisione di uccidere un essere umano è una decisione molto importante”, ha detto a BI Mick Ryan, un maggiore generale e stratega australiano in pensione che si concentra sugli sviluppi della guerra.
All’inizio di questo mese, un’indagine congiunta della rivista +972 e Local Call ha rivelato che le forze di occupazione israeliane stavano utilizzando un programma di intelligenza artificiale chiamato “Lavender” per creare obiettivi sospetti per Hamas nella Striscia di Gaza, citando interviste con sei ufficiali anonimi dell’intelligence israeliana.
Il rapporto sostiene che l’IDF faceva molto affidamento su Lavender e trattava essenzialmente le informazioni su chi dovesse essere ucciso “come se fosse una decisione umanitaria”, dicono le fonti.
Una volta che un palestinese veniva collegato ad Hamas e veniva determinata l’ubicazione della sua casa, l’IDF ha effettivamente approvato la decisione della macchina, hanno detto le fonti. Gli ci sono voluti solo pochi secondi per esaminarla lui stesso.
L’indagine congiunta ha scoperto che la rapidità degli attacchi israeliani ha fatto ben poco per cercare di ridurre al minimo i danni ai civili nelle vicinanze. Lo scorso autunno sono venuti alla luce i dettagli del programma Gospel di Israele, rivelando che il progremma aveva aumentato la capacità di identificare obiettivi mirati, da circa 50 all’anno a più di 100 al giorno.
Interrogato sul rapporto, l’IDF ha rinviato il report con una dichiarazione “qualsiasi altra accusa dimostra una mancanza di conoscenza sufficiente delle operazioni dell’esercito di occupazione israeliano.”
Kobbi Shoshani, Console Generale di Israele a Mumbai (rappresentante ufficiale dello Stato di Israele nel Maharashtra, Gujarat, Madhya Pradesh e Goa), ha descritto il sistema come un database di controllo “progettato per aiutare l’analisi umana, non per sostituirla”, ma ci sono comunque dei rischi potenziali di falsi positivi, come in qualsiasi altro software ai, solo che in questo caso non è l’etichettatura di un prodotto, è la vita delle persone.
Israele non è l’unico paese che esplora il potenziale dell’intelligenza artificiale in guerra. Questa ricerca è accompagnata da una maggiore attenzione all’uso di sistemi senza pilota, come il mondo vede sempre più spesso in Ucraina e altrove, le preoccupazioni sui robot assassini non sono più solo fantascienza
“Proprio come l’intelligenza artificiale sta diventando più comune nel nostro lavoro e nella nostra vita personale, lo è anche nella nostra guerra”, ha detto a BI Peter Singer, un esperto di guerra del futuro presso il think tank New America, spiegando che “stiamo vivendo un nuovo rivoluzione industriale.” Proprio come con la recente meccanizzazione, il nostro mondo sta cambiando, sia in meglio che in peggio.
L’intelligenza artificiale si sta evolvendo più velocemente degli strumenti necessari per tenerla sotto controllo, e gli esperti hanno affermato che i rapporti sull’uso militare da parte di Israele sollevano una serie di preoccupazioni che sono da tempo al centro del dibattito sull’intelligenza artificiale nella guerra futura.
Molti paesi, tra cui Stati Uniti, Russia e Cina, hanno dato priorità all’implementazione di programmi di intelligenza artificiale nei loro eserciti, e al progetto americano Maven, che dal 2017 ha fatto grandi passi avanti per aiutare le forze sul terreno vagliando enormi quantità di informazioni. Tuttavia, la tecnologia si è spesso sviluppata più velocemente di quanto i governi riescano a tenere il passo.
econdo Ryan, la tendenza generale “è che la tecnologia e i requisiti del campo di battaglia stanno andando oltre la considerazione delle questioni legali ed etiche relative all’applicazione dell’intelligenza artificiale in guerra”. Gli attuali sistemi governativi e burocratici possono fare in modo che le politiche su queste questioni non possano tenere il passo, ha detto, aggiungendo che “potrebbero non riuscire mai a tenere il passo.”
Lo scorso novembre, durante una conferenza delle Nazioni Unite, diversi governi hanno espresso preoccupazione sulla necessità di nuove leggi per regolamentare l’uso dei programmi killer autonomi, ovvero macchine guidate dall’intelligenza artificiale coinvolte nel prendere decisioni per uccidere gli esseri umani.
Ma alcuni paesi, soprattutto quelli attualmente all’avanguardia nello sviluppo e nell’implementazione di queste tecnologie, si sono mostrati riluttanti a imporre nuove restrizioni e, in particolare, Stati Uniti, Russia e Israele sono sembrati particolarmente riluttanti a sostenere nuove leggi internazionali in materia.
“Molti militari hanno detto: ‘Fidati di noi, saremo responsabili di questa tecnologia’”, ha detto a BI Paul Scharre, un esperto di armi autonome presso il Center for a New American Security. Ma in assenza di supervisione, è improbabile che molte persone si fideranno dell’uso dell’intelligenza artificiale da parte di Alcuni paesi, come Israele, hanno poca fiducia nel fatto che i militari utilizzeranno sempre le nuove tecnologie in modo responsabile.
Un programma come Lavender, secondo quanto riferito, non sembra fantascienza ed è del tutto in linea con il modo in cui gli eserciti globali mirano a utilizzare l’intelligenza artificiale, ha detto Paul Scharre. e prendere decisioni su quali obiettivi attaccare. “Obiettivi come carri armati o pezzi di artiglieria”, ha detto a BI.
Il passo successivo è trasferire tutte queste informazioni in un piano di targeting, associarle ad armi o piattaforme specifiche e quindi agire effettivamente in base al piano.
Ci vuole molto tempo e, nel caso di Israele, c’è probabilmente il desiderio di sviluppare molti obiettivi molto rapidamente, ha detto Paul Scharre. Gli esperti hanno espresso preoccupazione sull’accuratezza di questi programmi di targeting dell’intelligenza artificiale. Utilizzare una varietà di canali di informazione, come i social media e l’uso del telefono, per fissare i propri obiettivi.
Nel rapporto +972 Magazine and Local Calls, le fonti affermano che il tasso di precisione del 90% del programma è considerato accettabile. Il problema evidente è il restante 10%, che rappresenta un sacco di errori considerando la portata della guerra aerea israeliana e la sua significatività.
L’intelligenza artificiale impara continuamente, nel bene e nel male, e con ogni utilizzo questi programmi acquisiscono conoscenza ed esperienza che poi utilizzano per prendere decisioni future. Con un tasso di precisione del 90%, osserva il rapporto, l’apprendimento automatico di Lavender può migliorare le informazioni corrette e sbagliate uccidendo vite umane.
Le guerre future potrebbero vedere l’intelligenza artificiale lavorare a fianco degli esseri umani per elaborare enormi quantità di dati e suggerire potenziali linee d’azione nel vivo della battaglia, ma ci sono molte possibilità che potrebbero inasprire tale partnership.
I dati raccolti potrebbero essere troppi da elaborare o comprendere per gli esseri umani. Se un programma di intelligenza artificiale elabora enormi quantità di informazioni per preparare un elenco di potenziali obiettivi, potrebbe raggiungere un punto in cui gli esseri umani si sentiranno rapidamente sopraffatti e incapaci di contribuire in modo significativo al processo decisionale.
Esiste anche la possibilità di agire troppo rapidamente e fare ipotesi basate sui dati, aumentando la probabilità di errori, hanno scritto su tale questione nell’ottobre 2023 il consigliere militare e del gruppo armato del CICR Robin Stewart e il consigliere legale Georgia Hinds.
“Uno dei vantaggi militari dichiarati dell’intelligenza artificiale è l’aumento del ritmo decisionale che offre all’utente rispetto al suo avversario. Aumentare il ritmo spesso porta a rischi aggiuntivi per i civili, motivo per cui le tecnologie che riducono il ritmo, così come “pazienza tattica”, vengono utilizzati per ridurre le vittime civili.“
Nel loro tentativo di muoversi rapidamente, gli umani possono togliere le mani dal volante e fidarsi ciecamente dell’intelligenza artificiale con poca supervisione, secondo il rapporto della rivista 972+ e Local Calls. Infatti gli obiettivi vengono esaminati dall’IA per soli 20 secondi, di solito solo per assicurarsi che l’aspirante assassino fosse maschio, prima di autorizzare il colpo.
Rapporti recenti sollevano seri interrogativi sulla misura in cui le persone sono “in loop” durante il processo decisionale. Secondo Singer, è anche “un possibile esempio di ciò che a volte è noto come ‘distorsione della macchina’”, una situazione in cui “un essere umano inganna se stesso facendogli credere che, poiché una macchina ha fornito la risposta, deve essere corretta”. Quindi, l’essere umano potrebbe alle lunghe non fare il suo lavoro e fidarsi ciecamente delle macchine.
A ottobre, il segretario generale delle Nazioni Unite António Guterres e il capo del Comitato internazionale della Croce Rossa, Mirjana Spoljaric, hanno lanciato un appello congiunto affinché gli eserciti “devono agire ora per mantenere il controllo umano sull’uso della forza” in combattimento.
“Il controllo umano sulle decisioni sulla vita e sulla morte deve essere mantenuto. La presa di mira degli esseri umani da parte delle macchine è una linea etica che non dobbiamo oltrepassare”, hanno affermato. “Il diritto internazionale deve vietare alle macchine capacità di uccidere senza l’intervento umano .”
Ma anche se ci sono dei rischi, l’intelligenza artificiale potrebbe avere molti vantaggi militari, come aiutare gli esseri umani a elaborare un’ampia gamma di dati e fonti per consentire loro di prendere decisioni informate, oltre a fornire una varietà di opzioni su come gestire le situazioni.
Una significativa collaborazione “human-in-the-loop” può essere vantaggiosa, ma alla fine spetta all’essere umano mantenere la fine di quella relazione. in altre parole, mantenere il potere e il controllo sull’intelligenza artificiale. Siamo padroni delle macchine, sia che si voli su un aereo, si guidi una nave o un carro armato, ma con molti di questi sistemi autonomi e nuovi algoritmi.
Molti eserciti non sono preparati per una simile trasformazione. Come hanno scritto Ryan e Clint Henot in un commento per War on the Rocks all’inizio di quest’anno, “Nel prossimo decennio, le imprese militari potrebbero realizzare una situazione in cui i sistemi senza pilota superano in numero gli esseri umani”.
“Attualmente, le tattiche, l’addestramento e i modelli di leadership delle organizzazioni militari sono progettati per istituzioni militari che sono principalmente umane, e questi umani esercitano uno stretto controllo sulle macchine”, hanno scritto.
“Cambiare l’istruzione e la formazione per preparare gli esseri umani a interagire con le macchine – e non solo a usarle – è un’evoluzione culturale necessaria ma difficile”, hanno affermato. Ma questo è ancora un lavoro in corso per molti militari.
Cosa ci riserverà il futuro? Difficile dirlo.
Sicuramente senza una corretta regolamentazione delle AI ad uso militare ci saranno molte più guerre per via del fatto che gli eserciti non saranno più faccia a faccia uno contro l’altro. Ma l’uso indiscriminato delle armi autonome porterà a molte vittime civili per via di quel 10% che abbiamo analizzato prima.
E il 10 per cento sono 10 vite umane innocenti perse vanamente per via di un bug del silicio.