L’intelligenza artificiale (IA) potrebbe scatenare una crisi finanziaria con conseguenze “catastrofiche”, avverte lo storico e scrittore Yuval Noah Harari. Sottolinea la complessità nel prevedere i pericoli associati all’IA a causa della sua natura sofisticata.
A differenza degli scenari legati alle armi nucleari, dove esiste una minaccia singola e ben compresa, l’IA introduce una moltitudine di possibili pericoli. Ciascuno ha una probabilità relativamente bassa. Harari sottolinea che l’effetto cumulativo di questi scenari costituisce una minaccia esistenziale per la civiltà umana.
Esprimendo preoccupazioni sulla sicurezza dei test dei modelli di IA, Harari sottolinea le sfide uniche poste dall’IA. A differenza delle tecnologie precedenti, l’IA ha la capacità di prendere decisioni in modo indipendente, generare nuove idee e imparare ed evolversi autonomamente. Questa autonomia rende estremamente difficile per gli esseri umani, anche per i creatori della tecnologia, anticipare tutti i potenziali pericoli e problemi.
Harari considera la recente dichiarazione multilaterale al vertice globale sulla sicurezza dell’IA a Bletchley Park come un passo cruciale avanti. La partecipazione di governi di spicco, tra cui l’Unione Europea, il Regno Unito, gli Stati Uniti e, soprattutto, la Cina, rappresenta un segnale positivo. La cooperazione globale è considerata essenziale per affrontare efficacemente gli aspetti più pericolosi dell’IA.
Durante il vertice, dieci governi, tra cui Regno Unito e Stati Uniti (escludendo la Cina), l’UE e importanti aziende di IA, come OpenAI e Google, hanno concordato di collaborare nei test dei modelli di IA avanzati prima e dopo il loro rilascio.
Sostenendo la prudenza nello sviluppo avanzato dell’IA, Harari supporta una pausa di sei mesi e chiede che le aziende di IA siano responsabili dei danni causati dai loro prodotti. Egli sottolinea la necessità di istituzioni regolatorie dotate di conoscenze tecnologiche per rispondere prontamente alle nuove scoperte, anziché concentrarsi esclusivamente su regolamentazioni e leggi specifiche.
Mettendo in evidenza la finanza come un settore particolarmente adatto all’IA, Harari mette in guardia sul potenziale dell’IA nel creare strumenti finanziari altamente complessi che superano la comprensione umana. Paragonando la situazione alla crisi finanziaria del 2007-08 causata da strumenti di debito scarsamente compresi come i CDO, Harari immagina l’IA generare strumenti finanziari di complessità senza precedenti.
In questo scenario, potrebbe emergere un sistema finanziario al di là della comprensione e della regolamentazione umana, portando a una crisi dalle conseguenze molto estese.
Sebbene Harari riconosca il rischio catastrofico di una crisi finanziaria indotta dall’IA su fronti economici, sociali e politici, distingue tale rischio da una minaccia esistenziale per la civiltà umana. Egli nota che le conseguenze indirette, come l’innescare guerre o conflitti, potrebbero amplificare l’impatto di una crisi finanziaria.
Ti è piaciuto questo articolo? Ne stiamo discutendo nella nostra Community su LinkedIn, Facebook e Instagram. Seguici anche su Google News, per ricevere aggiornamenti quotidiani sulla sicurezza informatica o Scrivici se desideri segnalarci notizie, approfondimenti o contributi da pubblicare.

CybercrimeLe autorità tedesche hanno recentemente lanciato un avviso riguardante una sofisticata campagna di phishing che prende di mira gli utenti di Signal in Germania e nel resto d’Europa. L’attacco si concentra su profili specifici, tra…
InnovazioneL’evoluzione dell’Intelligenza Artificiale ha superato una nuova, inquietante frontiera. Se fino a ieri parlavamo di algoritmi confinati dietro uno schermo, oggi ci troviamo di fronte al concetto di “Meatspace Layer”: un’infrastruttura dove le macchine non…
CybercrimeNegli ultimi anni, la sicurezza delle reti ha affrontato minacce sempre più sofisticate, capaci di aggirare le difese tradizionali e di penetrare negli strati più profondi delle infrastrutture. Un’analisi recente ha portato alla luce uno…
VulnerabilitàNegli ultimi tempi, la piattaforma di automazione n8n sta affrontando una serie crescente di bug di sicurezza. n8n è una piattaforma di automazione che trasforma task complessi in operazioni semplici e veloci. Con pochi click…
InnovazioneArticolo scritto con la collaborazione di Giovanni Pollola. Per anni, “IA a bordo dei satelliti” serviva soprattutto a “ripulire” i dati: meno rumore nelle immagini e nei dati acquisiti attraverso i vari payload multisensoriali, meno…