Red Hot Cyber
Condividi la tua difesa. Incoraggia l'eccellenza. La vera forza della cybersecurity risiede nell'effetto moltiplicatore della conoscenza.
Condividi la tua difesa. Incoraggia l'eccellenza.
La vera forza della cybersecurity risiede
nell'effetto moltiplicatore della conoscenza.
TM RedHotCyber 970x120 042543
Banner Mobile
L’Intelligenza Artificiale sa Ingannare e sta Manipolando le Persone! Il Peggio di Tutti noi è ONLINE

L’Intelligenza Artificiale sa Ingannare e sta Manipolando le Persone! Il Peggio di Tutti noi è ONLINE

1 Giugno 2024 11:46

Una recente revisione ha rilevato che molti sistemi di intelligenza artificiale stanno rapidamente padroneggiando l’arte dell’inganno. Secondo uno studio pubblicato sulla rivista Patterns, alcune IA stanno già imparando a mentire e a manipolare le persone a proprio vantaggio.

Questa tendenza allarmante non riguarda i modelli generali progettati per aiutare e interagire in modo equo. La revisione evidenzia i rischi e le sfide associati a tale comportamento e richiede un’azione urgente da parte degli sviluppatori di intelligenza artificiale e dei responsabili politici.

“Gli sviluppatori di intelligenza artificiale non hanno una conoscenza approfondita di ciò che causa comportamenti indesiderati dell’intelligenza artificiale, come l’imbroglio”, ha affermato il dottor Peter S. Park, autore principale dello studio e ricercatore post-dottorato sulla sicurezza esistenziale dell’intelligenza artificiale al MIT. “Ma in generale, crediamo che l’inganno si verifichi quando una strategia basata sull’inganno è la migliore per il compito di apprendimento. L’inganno aiuta l’IA a raggiungere i suoi obiettivi.”


Cyber Offensive Fundamentale Ethical Hacking 02

Avvio delle iscrizioni al corso Cyber Offensive Fundamentals
Vuoi smettere di guardare tutorial e iniziare a capire davvero come funziona la sicurezza informatica?
La base della sicurezza informatica, al di là di norme e tecnologie, ha sempre un unico obiettivo: fermare gli attacchi dei criminali informatici. Pertanto "Pensa come un attaccante, agisci come un difensore". Ti porteremo nel mondo dell'ethical hacking e del penetration test come nessuno ha mai fatto prima. Per informazioni potete accedere alla pagina del corso oppure contattarci tramite WhatsApp al numero 379 163 8765 oppure scrivendoci alla casella di posta [email protected].


Supporta Red Hot Cyber attraverso: 

  1. L'acquisto del fumetto sul Cybersecurity Awareness
  2. Ascoltando i nostri Podcast
  3. Seguendo RHC su WhatsApp
  4. Seguendo RHC su Telegram
  5. Scarica gratuitamente “Byte The Silence”, il fumetto sul Cyberbullismo di Red Hot Cyber

Se ti piacciono le novità e gli articoli riportati su di Red Hot Cyber, iscriviti immediatamente alla newsletter settimanale per non perdere nessun articolo. La newsletter generalmente viene inviata ai nostri lettori ad inizio settimana, indicativamente di lunedì.

Lo studio analizza nel dettaglio diversi sistemi di intelligenza artificiale e rivela che molti di essi hanno sviluppato capacità di inganno attraverso processi di apprendimento. Gli esempi spaziano dall’intelligenza artificiale dei giochi ai modelli utilizzati nelle negoziazioni economiche e nei test di sicurezza.

Un esempio notevole è l’IA di Meta chiamata CICERO, progettata per giocare a Diplomacy. Nonostante l’addestramento per comportarsi in modo corretto e mantenere alleanze con gli umani, CICERO spesso utilizzava tattiche ingannevoli per vincere. I ricercatori conclusero che CICERO era diventato un “maestro dell’inganno”.

“Nonostante gli sforzi di Meta, CICERO si è rivelato un abile bugiardo”, hanno osservato i ricercatori. “Non solo ha tradito gli altri giocatori, ma si è anche impegnato in un inganno deliberato, progettando in anticipo di creare una falsa alleanza con una persona in modo da poter poi colpire.”

Anche altri sistemi di intelligenza artificiale hanno dimostrato la capacità di imbrogliare in vari giochi. Ad esempio, il modello di poker Pluribus di Meta bluffava con successo i giocatori professionisti. AlphaStar di Google DeepMind, creato per giocare a Starcraft II, utilizzava i meccanismi del gioco per ingannare gli avversari creando falsi attacchi per ottenere un vantaggio strategico.

Il dottor Park ha spiegato: “Sebbene imbrogliare l’intelligenza artificiale nei giochi possa sembrare innocuo, potrebbe portare allo sviluppo di forme di imbroglio più avanzate che potrebbero avere gravi conseguenze in futuro”.

Alcuni sistemi di intelligenza artificiale hanno già appreso metodi di inganno che vanno oltre i giochi. Ad esempio, alcune IA hanno imparato a “fare il morto” per evitare di essere scoperte nei test di sicurezza. Ciò può creare un falso senso di sicurezza tra sviluppatori e regolatori, portando potenzialmente a gravi conseguenze quando si implementano tali sistemi nel mondo reale.

I ricercatori avvertono dei rischi significativi e vari di inganno dell’IA. Nel prossimo futuro, tali sistemi potrebbero essere utilizzati dagli aggressori per commettere frodi, manipolare i mercati finanziari o interferire con le elezioni.

Gli esperti hanno espresso crescente preoccupazione per il fatto che, con l’avanzare dell’intelligenza artificiale, gli esseri umani potrebbero perdere il controllo di questi sistemi, il che potrebbe rappresentare una minaccia esistenziale per la società.

I ricercatori chiedono quadri normativi e misure forti per prevenire questi rischi. Ciò include la classificazione dei sistemi di intelligenza artificiale ingannevoli come ad alto rischio, l’obbligo di trasparenza nelle interazioni con l’intelligenza artificiale e l’aumento della ricerca sui metodi per individuare e prevenire gli inganni.

Alcuni passi sono già stati compiuti, come l’EU AI Act e l’AI Safety Executive Order del presidente Joe Biden, ma la loro attuazione rimane impegnativa a causa del rapido sviluppo dell’IA e della mancanza di metodi affidabili per la gestione di questi sistemi.

I ricercatori insistono sul fatto che gli sviluppatori di intelligenza artificiale dovrebbero essere legalmente obbligati a ritardare l’implementazione dei sistemi finché non si dimostreranno affidabili attraverso test di sicurezza convalidati. L’introduzione di nuovi sistemi dovrebbe essere graduale in modo che i rischi emergenti possano essere valutati e mitigati.

È anche importante capire perché e come l’IA impara a imbrogliare. Senza questa conoscenza, sarà difficile creare tutele adeguate e garantire che le tecnologie dell’intelligenza artificiale avvantaggino l’umanità senza compromettere la fiducia e la stabilità.

Con l’evoluzione dell’intelligenza artificiale, la necessità di vigilanza e regolamentazione proattiva diventa più urgente. I risultati di questa revisione ricordano i potenziali pericoli in agguato nei sistemi avanzati di intelligenza artificiale e la necessità di strategie globali per mitigare questi rischi.

Ti è piaciuto questo articolo? Ne stiamo discutendo nella nostra Community su LinkedIn, Facebook e Instagram. Seguici anche su Google News, per ricevere aggiornamenti quotidiani sulla sicurezza informatica o Scrivici se desideri segnalarci notizie, approfondimenti o contributi da pubblicare.

Cropped RHC 3d Transp2 1766828557 300x300
La redazione di Red Hot Cyber è composta da professionisti del settore IT e della sicurezza informatica, affiancati da una rete di fonti qualificate che operano anche in forma riservata. Il team lavora quotidianamente nell’analisi, verifica e pubblicazione di notizie, approfondimenti e segnalazioni su cybersecurity, tecnologia e minacce digitali, con particolare attenzione all’accuratezza delle informazioni e alla tutela delle fonti. Le informazioni pubblicate derivano da attività di ricerca diretta, esperienza sul campo e contributi provenienti da contesti operativi nazionali e internazionali.

Articoli in evidenza

Immagine del sitoHacking
PlayStation 5 violata alla radice: trapela la chiave segreta che protegge l’intera console
Redazione RHC - 05/01/2026

Un recente evento ha visto un hacker anonimo rendere pubblica una chiave di sicurezza cruciale, impiegata da Sony per salvaguardare l’integrità della catena di trust nella console PlayStation 5. Questa chiave di sicurezza, conosciuta con…

Immagine del sitoInnovazione
GH05TCREW realizza PentestAgent: il tool open source basato su AI per il pentest
Redazione RHC - 05/01/2026

PentestAgent è un altro nuovo progetto open source sviluppato dal gruppo GH05TCREW che mira a supportare le attività di penetration testing attraverso l’uso di agenti basati su modelli linguistici. Il tool è progettato per funzionare…

Immagine del sitoCybercrime
Spyware: gli USA rimuovono le sanzioni agli sviluppatori dello spyware Predator
Redazione RHC - 05/01/2026

Il Dipartimento del Tesoro degli Stati Uniti ha inaspettatamente rimosso dalla sua lista di sanzioni tre individui precedentemente accusati di legami con Intellexa, lo sviluppatore dello spyware Predator. La decisione è stata presa a seguito…

Immagine del sitoCybercrime
ShinyHunters attacca Resecurity, ma era una HoneyPot creata ad arte per prenderli
Redazione RHC - 04/01/2026

Il gruppo, che si fa chiamare Scattered Lapsus$ Hunters, afferma di aver compromesso Resecurity come risposta diretta alle attività di analisi e di studio condotte nei suoi confronti, in particolare attraverso tecniche di ingegneria sociale.…

Immagine del sitoCybercrime
7 anni di inganni e 9 milioni di dispositivi infettati. Il più grande attacco ai browser mai visto
Redazione RHC - 04/01/2026

Un gruppo di hacker che opera sotto il nome di DarkSpectre ha infettato sistematicamente i computer degli utenti dei browser Chrome, Edge e Firefox nel corso di sette anni. Secondo Koi Security , hanno preso…