Redazione RHC : 1 Giugno 2024 11:46
Una recente revisione ha rilevato che molti sistemi di intelligenza artificiale stanno rapidamente padroneggiando l’arte dell’inganno. Secondo uno studio pubblicato sulla rivista Patterns, alcune IA stanno già imparando a mentire e a manipolare le persone a proprio vantaggio.
Questa tendenza allarmante non riguarda i modelli generali progettati per aiutare e interagire in modo equo. La revisione evidenzia i rischi e le sfide associati a tale comportamento e richiede un’azione urgente da parte degli sviluppatori di intelligenza artificiale e dei responsabili politici.
“Gli sviluppatori di intelligenza artificiale non hanno una conoscenza approfondita di ciò che causa comportamenti indesiderati dell’intelligenza artificiale, come l’imbroglio”, ha affermato il dottor Peter S. Park, autore principale dello studio e ricercatore post-dottorato sulla sicurezza esistenziale dell’intelligenza artificiale al MIT. “Ma in generale, crediamo che l’inganno si verifichi quando una strategia basata sull’inganno è la migliore per il compito di apprendimento. L’inganno aiuta l’IA a raggiungere i suoi obiettivi.”
Vuoi diventare un Ethical Hacker?
Non perdere i nostri corsi e scrivi subito su WhatsApp al numero
375 593 1011
per richiedere informazioni dicendo che hai trovato il numero sulle pagine di Red Hot Cyber
Supporta RHC attraverso:
Ti piacciono gli articoli di Red Hot Cyber? Non aspettare oltre, iscriviti alla newsletter settimanale per non perdere nessun articolo.
Lo studio analizza nel dettaglio diversi sistemi di intelligenza artificiale e rivela che molti di essi hanno sviluppato capacità di inganno attraverso processi di apprendimento. Gli esempi spaziano dall’intelligenza artificiale dei giochi ai modelli utilizzati nelle negoziazioni economiche e nei test di sicurezza.
Un esempio notevole è l’IA di Meta chiamata CICERO, progettata per giocare a Diplomacy. Nonostante l’addestramento per comportarsi in modo corretto e mantenere alleanze con gli umani, CICERO spesso utilizzava tattiche ingannevoli per vincere. I ricercatori conclusero che CICERO era diventato un “maestro dell’inganno”.
“Nonostante gli sforzi di Meta, CICERO si è rivelato un abile bugiardo”, hanno osservato i ricercatori. “Non solo ha tradito gli altri giocatori, ma si è anche impegnato in un inganno deliberato, progettando in anticipo di creare una falsa alleanza con una persona in modo da poter poi colpire.”
Anche altri sistemi di intelligenza artificiale hanno dimostrato la capacità di imbrogliare in vari giochi. Ad esempio, il modello di poker Pluribus di Meta bluffava con successo i giocatori professionisti. AlphaStar di Google DeepMind, creato per giocare a Starcraft II, utilizzava i meccanismi del gioco per ingannare gli avversari creando falsi attacchi per ottenere un vantaggio strategico.
Il dottor Park ha spiegato: “Sebbene imbrogliare l’intelligenza artificiale nei giochi possa sembrare innocuo, potrebbe portare allo sviluppo di forme di imbroglio più avanzate che potrebbero avere gravi conseguenze in futuro”.
Alcuni sistemi di intelligenza artificiale hanno già appreso metodi di inganno che vanno oltre i giochi. Ad esempio, alcune IA hanno imparato a “fare il morto” per evitare di essere scoperte nei test di sicurezza. Ciò può creare un falso senso di sicurezza tra sviluppatori e regolatori, portando potenzialmente a gravi conseguenze quando si implementano tali sistemi nel mondo reale.
I ricercatori avvertono dei rischi significativi e vari di inganno dell’IA. Nel prossimo futuro, tali sistemi potrebbero essere utilizzati dagli aggressori per commettere frodi, manipolare i mercati finanziari o interferire con le elezioni.
Gli esperti hanno espresso crescente preoccupazione per il fatto che, con l’avanzare dell’intelligenza artificiale, gli esseri umani potrebbero perdere il controllo di questi sistemi, il che potrebbe rappresentare una minaccia esistenziale per la società.
I ricercatori chiedono quadri normativi e misure forti per prevenire questi rischi. Ciò include la classificazione dei sistemi di intelligenza artificiale ingannevoli come ad alto rischio, l’obbligo di trasparenza nelle interazioni con l’intelligenza artificiale e l’aumento della ricerca sui metodi per individuare e prevenire gli inganni.
Alcuni passi sono già stati compiuti, come l’EU AI Act e l’AI Safety Executive Order del presidente Joe Biden, ma la loro attuazione rimane impegnativa a causa del rapido sviluppo dell’IA e della mancanza di metodi affidabili per la gestione di questi sistemi.
I ricercatori insistono sul fatto che gli sviluppatori di intelligenza artificiale dovrebbero essere legalmente obbligati a ritardare l’implementazione dei sistemi finché non si dimostreranno affidabili attraverso test di sicurezza convalidati. L’introduzione di nuovi sistemi dovrebbe essere graduale in modo che i rischi emergenti possano essere valutati e mitigati.
È anche importante capire perché e come l’IA impara a imbrogliare. Senza questa conoscenza, sarà difficile creare tutele adeguate e garantire che le tecnologie dell’intelligenza artificiale avvantaggino l’umanità senza compromettere la fiducia e la stabilità.
Con l’evoluzione dell’intelligenza artificiale, la necessità di vigilanza e regolamentazione proattiva diventa più urgente. I risultati di questa revisione ricordano i potenziali pericoli in agguato nei sistemi avanzati di intelligenza artificiale e la necessità di strategie globali per mitigare questi rischi.
Copyright @ 2003 – 2024 RED HOT CYBER
PIVA 16821691009