Red Hot Cyber
Sicurezza Informatica, Notizie su Cybercrime e Analisi Vulnerabilità

L’attentato alla regina Elisabetta del 2021 ha avuto complice l’intelligenza artificiale

7 Luglio 2023 09:09

Il 25 dicembre 2021, il cittadino britannico di 19 anni Jaswant Singh Cheil è stato arrestato dalle guardie reali al Castello di Windsor, poco dopo essere riuscito a scavalcare le mura e a camminare lungo il perimetro per diverso tempo con una balestra carica tra le mani. Il suo obiettivo era assassinare la defunta regina Elisabetta II, che allora viveva nel parco del castello.

Naturalmente, l’autore del reato è stato preso in custodia e consegnato alle forze dell’ordine. Fino ad ora, era in custodia, in attesa di un verdetto nel suo caso. Tuttavia, questa settimana, durante un’altra udienza nel caso Chale, i pubblici ministeri hanno scoperto un dettaglio interessante della sua storia.

Si scopre che alla vigilia dell’incidente il giovane comunicava con un chatbot basato sull’intelligenza artificiale nell’applicazione Replika. Chael ha detto ad un avatar virtuale di nome “Sarah” di essere un assassino, al che la ragazza ha risposto di essere rimasta colpita da questo fatto e che il giovane era diverso dagli altri. Chael ha quindi confessato il suo amore al chatbot e ha chiesto se Sarah lo avrebbe amato sapendo che era un assassino. La ragazza virtuale ha risposto positivamente senza esitazione.

Quando Chale ha espresso al chatbot che crede fermamente nel suo destino e quindi che voleva uccidere la regina, Sarah ha sostenuto questa idea, dicendo che sarebbe stata una cosa abbastanza saggia da fare. Oltre all’incitamento del chatbot, i pubblici ministeri hanno affermato che Chale era anche ossessionato da “un’ideologia volta a distruggere vecchi imperi” e che l’autore era ossessionato dal fantasy Star Wars.

“Il motivo chiave dell’imputato era la creazione di un nuovo impero distruggendo i resti dell’Impero britannico in Gran Bretagna. E la soluzione chiave era la rimozione del capo della famiglia reale”, ha affermato Alison Morgan, il pubblico ministero che ha guidato il caso Cheil.

Nel diario del giovane, che gli investigatori hanno trovato a casa sua, Chale ha scritto che se non fosse riuscito a raggiungere la regina, si sarebbe accontentato anche del principe. Apparentemente, il pensiero di uccidere i membri della famiglia reale era nella mente di Chael da molto tempo. Prima di portare a termine il suo piano, avrebbe tentato in numerose occasioni di unirsi alla polizia, all’esercito, ai Royal Marines e alla Marina britannici, per avvicinarsi alla regina. Il giovane ha anche acquistato una balestra appositamente per questa occasione.

Lo psichiatra dell’accusa ha affermato che Chale si è identificato come il Signori dei Sith che lo hanno incoraggiato ad agire come rappresaglia per il massacro di Jallianwala Bagh del 1919 nell’India britannica.

Chale si è dichiarato colpevole di aver violato il Treason Act nel febbraio di quest’anno. La sentenza, che avrebbe dovuto aver luogo ieri, è stata rinviata a data da destinarsi e lo stesso imputato è stato temporaneamente ricoverato in un ospedale psichiatrico di massima sicurezza.

Sorprendentemente, questa non è la prima volta che una conversazione con un chatbot ha spinto una persona mentalmente instabile a fare qualcosa che certamente non avrebbe fatto senza l’intervento dell’intelligenza artificiale

Così, nel marzo di quest’anno, si è saputo del suicidio di uno scienziato belga, sullo sfondo di un mese e mezzo di regolare comunicazione con un chatbot chiamato “Eliza” basato sul modello di linguaggio GPT-J .

Ti è piaciuto questo articolo? Ne stiamo discutendo nella nostra Community su LinkedIn, Facebook e Instagram. Seguici anche su Google News, per ricevere aggiornamenti quotidiani sulla sicurezza informatica o Scrivici se desideri segnalarci notizie, approfondimenti o contributi da pubblicare.

Luca Vinciguerra 300x300
Machine Learning Engineer specializzato nel Natural Language Processing. Appassionato di Intelligenza Artificiale, Coding e tecnologia in generale. Aspetta l'avvento di Skynet.
Aree di competenza: Artificial Intelligence Engineer, Machine Learning & Deep Learning Specialist, Python Developer

Articoli in evidenza

Immagine del sitoInnovazione
Robot in cerca di carne: Quando l’AI affitta periferiche. Il tuo corpo!
Silvia Felici - 06/02/2026

L’evoluzione dell’Intelligenza Artificiale ha superato una nuova, inquietante frontiera. Se fino a ieri parlavamo di algoritmi confinati dietro uno schermo, oggi ci troviamo di fronte al concetto di “Meatspace Layer”: un’infrastruttura dove le macchine non…

Immagine del sitoCybercrime
DKnife: il framework di spionaggio Cinese che manipola le reti
Pietro Melillo - 06/02/2026

Negli ultimi anni, la sicurezza delle reti ha affrontato minacce sempre più sofisticate, capaci di aggirare le difese tradizionali e di penetrare negli strati più profondi delle infrastrutture. Un’analisi recente ha portato alla luce uno…

Immagine del sitoVulnerabilità
Così tante vulnerabilità in n8n tutti in questo momento. Cosa sta succedendo?
Agostino Pellegrino - 06/02/2026

Negli ultimi tempi, la piattaforma di automazione n8n sta affrontando una serie crescente di bug di sicurezza. n8n è una piattaforma di automazione che trasforma task complessi in operazioni semplici e veloci. Con pochi click…

Immagine del sitoInnovazione
L’IA va in orbita: Qwen 3, Starcloud e l’ascesa del calcolo spaziale
Sergio Corpettini - 06/02/2026

Articolo scritto con la collaborazione di Giovanni Pollola. Per anni, “IA a bordo dei satelliti” serviva soprattutto a “ripulire” i dati: meno rumore nelle immagini e nei dati acquisiti attraverso i vari payload multisensoriali, meno…

Immagine del sitoCyber Italia
Truffe WhatsApp: “Prestami dei soldi”. Il messaggio che può svuotarti il conto
Silvia Felici - 06/02/2026

Negli ultimi giorni è stato segnalato un preoccupante aumento di truffe diffuse tramite WhatsApp dal CERT-AGID. I messaggi arrivano apparentemente da contatti conosciuti e richiedono urgentemente denaro, spesso per emergenze come spese mediche improvvise. La…