Redazione RHC : 11 Novembre 2023 15:45
L’intelligenza artificiale (IA) potrebbe scatenare una crisi finanziaria con conseguenze “catastrofiche”, avverte lo storico e scrittore Yuval Noah Harari. Sottolinea la complessità nel prevedere i pericoli associati all’IA a causa della sua natura sofisticata.
A differenza degli scenari legati alle armi nucleari, dove esiste una minaccia singola e ben compresa, l’IA introduce una moltitudine di possibili pericoli. Ciascuno ha una probabilità relativamente bassa. Harari sottolinea che l’effetto cumulativo di questi scenari costituisce una minaccia esistenziale per la civiltà umana.
Esprimendo preoccupazioni sulla sicurezza dei test dei modelli di IA, Harari sottolinea le sfide uniche poste dall’IA. A differenza delle tecnologie precedenti, l’IA ha la capacità di prendere decisioni in modo indipendente, generare nuove idee e imparare ed evolversi autonomamente. Questa autonomia rende estremamente difficile per gli esseri umani, anche per i creatori della tecnologia, anticipare tutti i potenziali pericoli e problemi.
FINO AL 31 DICEMBRE, sconti estremi sui corsi Red Hot Cyber
Affrettati!
Fino al 31 dicembre potrai acquistare a prezzi scontati i nostri corsi cliccando sui seguenti coupon:
Supporta RHC attraverso:
Ti piacciono gli articoli di Red Hot Cyber? Non aspettare oltre, iscriviti alla newsletter settimanale per non perdere nessun articolo.
Harari considera la recente dichiarazione multilaterale al vertice globale sulla sicurezza dell’IA a Bletchley Park come un passo cruciale avanti. La partecipazione di governi di spicco, tra cui l’Unione Europea, il Regno Unito, gli Stati Uniti e, soprattutto, la Cina, rappresenta un segnale positivo. La cooperazione globale è considerata essenziale per affrontare efficacemente gli aspetti più pericolosi dell’IA.
Durante il vertice, dieci governi, tra cui Regno Unito e Stati Uniti (escludendo la Cina), l’UE e importanti aziende di IA, come OpenAI e Google, hanno concordato di collaborare nei test dei modelli di IA avanzati prima e dopo il loro rilascio.
Sostenendo la prudenza nello sviluppo avanzato dell’IA, Harari supporta una pausa di sei mesi e chiede che le aziende di IA siano responsabili dei danni causati dai loro prodotti. Egli sottolinea la necessità di istituzioni regolatorie dotate di conoscenze tecnologiche per rispondere prontamente alle nuove scoperte, anziché concentrarsi esclusivamente su regolamentazioni e leggi specifiche.
Mettendo in evidenza la finanza come un settore particolarmente adatto all’IA, Harari mette in guardia sul potenziale dell’IA nel creare strumenti finanziari altamente complessi che superano la comprensione umana. Paragonando la situazione alla crisi finanziaria del 2007-08 causata da strumenti di debito scarsamente compresi come i CDO, Harari immagina l’IA generare strumenti finanziari di complessità senza precedenti.
In questo scenario, potrebbe emergere un sistema finanziario al di là della comprensione e della regolamentazione umana, portando a una crisi dalle conseguenze molto estese.
Sebbene Harari riconosca il rischio catastrofico di una crisi finanziaria indotta dall’IA su fronti economici, sociali e politici, distingue tale rischio da una minaccia esistenziale per la civiltà umana. Egli nota che le conseguenze indirette, come l’innescare guerre o conflitti, potrebbero amplificare l’impatto di una crisi finanziaria.
Copyright @ 2003 – 2024 RED HOT CYBER
PIVA 16821691009