Redazione RHC : 11 Novembre 2023 15:45
L’intelligenza artificiale (IA) potrebbe scatenare una crisi finanziaria con conseguenze “catastrofiche”, avverte lo storico e scrittore Yuval Noah Harari. Sottolinea la complessità nel prevedere i pericoli associati all’IA a causa della sua natura sofisticata.
A differenza degli scenari legati alle armi nucleari, dove esiste una minaccia singola e ben compresa, l’IA introduce una moltitudine di possibili pericoli. Ciascuno ha una probabilità relativamente bassa. Harari sottolinea che l’effetto cumulativo di questi scenari costituisce una minaccia esistenziale per la civiltà umana.
Esprimendo preoccupazioni sulla sicurezza dei test dei modelli di IA, Harari sottolinea le sfide uniche poste dall’IA. A differenza delle tecnologie precedenti, l’IA ha la capacità di prendere decisioni in modo indipendente, generare nuove idee e imparare ed evolversi autonomamente. Questa autonomia rende estremamente difficile per gli esseri umani, anche per i creatori della tecnologia, anticipare tutti i potenziali pericoli e problemi.
Acquista il corso Dark Web & Cyber Threat Intelligence (e-learning version)
Il Dark Web e la Cyber Threat Intelligence rappresentano aree critiche per comprendere le minacce informatiche moderne. Tra ransomware, data breach e attività illecite, le organizzazioni devono affrontare sfide sempre più complesse per proteggere i propri dati e le infrastrutture. Il nostro corso “Dark Web & Cyber Threat Intelligence” ti guiderà attraverso i meccanismi e le strategie utilizzate dai criminali informatici, fornendoti competenze pratiche per monitorare, analizzare e anticipare le minacce.
Accedi alla pagina del corso condotto dall'Prof. Pietro Melillo sulla nostra Academy e segui l'anteprima gratuita.
Per un periodo limitato, potrai utilizzare il COUPON CTI-16253 che ti darà diritto ad uno sconto del 20% sul prezzo di copertina del corso
Per ulteriori informazioni, scrivici ad [email protected] oppure scrivici su Whatsapp al 379 163 8765
Supporta RHC attraverso:
Harari considera la recente dichiarazione multilaterale al vertice globale sulla sicurezza dell’IA a Bletchley Park come un passo cruciale avanti. La partecipazione di governi di spicco, tra cui l’Unione Europea, il Regno Unito, gli Stati Uniti e, soprattutto, la Cina, rappresenta un segnale positivo. La cooperazione globale è considerata essenziale per affrontare efficacemente gli aspetti più pericolosi dell’IA.
Durante il vertice, dieci governi, tra cui Regno Unito e Stati Uniti (escludendo la Cina), l’UE e importanti aziende di IA, come OpenAI e Google, hanno concordato di collaborare nei test dei modelli di IA avanzati prima e dopo il loro rilascio.
Sostenendo la prudenza nello sviluppo avanzato dell’IA, Harari supporta una pausa di sei mesi e chiede che le aziende di IA siano responsabili dei danni causati dai loro prodotti. Egli sottolinea la necessità di istituzioni regolatorie dotate di conoscenze tecnologiche per rispondere prontamente alle nuove scoperte, anziché concentrarsi esclusivamente su regolamentazioni e leggi specifiche.
Mettendo in evidenza la finanza come un settore particolarmente adatto all’IA, Harari mette in guardia sul potenziale dell’IA nel creare strumenti finanziari altamente complessi che superano la comprensione umana. Paragonando la situazione alla crisi finanziaria del 2007-08 causata da strumenti di debito scarsamente compresi come i CDO, Harari immagina l’IA generare strumenti finanziari di complessità senza precedenti.
In questo scenario, potrebbe emergere un sistema finanziario al di là della comprensione e della regolamentazione umana, portando a una crisi dalle conseguenze molto estese.
Sebbene Harari riconosca il rischio catastrofico di una crisi finanziaria indotta dall’IA su fronti economici, sociali e politici, distingue tale rischio da una minaccia esistenziale per la civiltà umana. Egli nota che le conseguenze indirette, come l’innescare guerre o conflitti, potrebbero amplificare l’impatto di una crisi finanziaria.