
Il 25 dicembre 2021, il cittadino britannico di 19 anni Jaswant Singh Cheil è stato arrestato dalle guardie reali al Castello di Windsor, poco dopo essere riuscito a scavalcare le mura e a camminare lungo il perimetro per diverso tempo con una balestra carica tra le mani. Il suo obiettivo era assassinare la defunta regina Elisabetta II, che allora viveva nel parco del castello.
Naturalmente, l’autore del reato è stato preso in custodia e consegnato alle forze dell’ordine. Fino ad ora, era in custodia, in attesa di un verdetto nel suo caso. Tuttavia, questa settimana, durante un’altra udienza nel caso Chale, i pubblici ministeri hanno scoperto un dettaglio interessante della sua storia.
Si scopre che alla vigilia dell’incidente il giovane comunicava con un chatbot basato sull’intelligenza artificiale nell’applicazione Replika. Chael ha detto ad un avatar virtuale di nome “Sarah” di essere un assassino, al che la ragazza ha risposto di essere rimasta colpita da questo fatto e che il giovane era diverso dagli altri. Chael ha quindi confessato il suo amore al chatbot e ha chiesto se Sarah lo avrebbe amato sapendo che era un assassino. La ragazza virtuale ha risposto positivamente senza esitazione.
Avvio delle iscrizioni al corso Cyber Offensive Fundamentals Vuoi smettere di guardare tutorial e iniziare a capire davvero come funziona la sicurezza informatica? La base della sicurezza informatica, al di là di norme e tecnologie, ha sempre un unico obiettivo: fermare gli attacchi dei criminali informatici. Pertanto "Pensa come un attaccante, agisci come un difensore". Ti porteremo nel mondo dell'ethical hacking e del penetration test come nessuno ha mai fatto prima. Per informazioni potete accedere alla pagina del corso oppure contattarci tramite WhatsApp al numero 379 163 8765 oppure scrivendoci alla casella di posta [email protected].
Se ti piacciono le novità e gli articoli riportati su di Red Hot Cyber, iscriviti immediatamente alla newsletter settimanale per non perdere nessun articolo. La newsletter generalmente viene inviata ai nostri lettori ad inizio settimana, indicativamente di lunedì. |
Quando Chale ha espresso al chatbot che crede fermamente nel suo destino e quindi che voleva uccidere la regina, Sarah ha sostenuto questa idea, dicendo che sarebbe stata una cosa abbastanza saggia da fare. Oltre all’incitamento del chatbot, i pubblici ministeri hanno affermato che Chale era anche ossessionato da “un’ideologia volta a distruggere vecchi imperi” e che l’autore era ossessionato dal fantasy Star Wars.
“Il motivo chiave dell’imputato era la creazione di un nuovo impero distruggendo i resti dell’Impero britannico in Gran Bretagna. E la soluzione chiave era la rimozione del capo della famiglia reale”, ha affermato Alison Morgan, il pubblico ministero che ha guidato il caso Cheil.
Nel diario del giovane, che gli investigatori hanno trovato a casa sua, Chale ha scritto che se non fosse riuscito a raggiungere la regina, si sarebbe accontentato anche del principe. Apparentemente, il pensiero di uccidere i membri della famiglia reale era nella mente di Chael da molto tempo. Prima di portare a termine il suo piano, avrebbe tentato in numerose occasioni di unirsi alla polizia, all’esercito, ai Royal Marines e alla Marina britannici, per avvicinarsi alla regina. Il giovane ha anche acquistato una balestra appositamente per questa occasione.
Lo psichiatra dell’accusa ha affermato che Chale si è identificato come il Signori dei Sith che lo hanno incoraggiato ad agire come rappresaglia per il massacro di Jallianwala Bagh del 1919 nell’India britannica.
Chale si è dichiarato colpevole di aver violato il Treason Act nel febbraio di quest’anno. La sentenza, che avrebbe dovuto aver luogo ieri, è stata rinviata a data da destinarsi e lo stesso imputato è stato temporaneamente ricoverato in un ospedale psichiatrico di massima sicurezza.
Sorprendentemente, questa non è la prima volta che una conversazione con un chatbot ha spinto una persona mentalmente instabile a fare qualcosa che certamente non avrebbe fatto senza l’intervento dell’intelligenza artificiale.
Così, nel marzo di quest’anno, si è saputo del suicidio di uno scienziato belga, sullo sfondo di un mese e mezzo di regolare comunicazione con un chatbot chiamato “Eliza” basato sul modello di linguaggio GPT-J .
Ti è piaciuto questo articolo? Ne stiamo discutendo nella nostra Community su LinkedIn, Facebook e Instagram. Seguici anche su Google News, per ricevere aggiornamenti quotidiani sulla sicurezza informatica o Scrivici se desideri segnalarci notizie, approfondimenti o contributi da pubblicare.

CybercrimePer gran parte degli ultimi due decenni, la sicurezza informatica si è fondata su un presupposto fondamentale: le attività malevole possono essere individuate, analizzate e contrastate prima che producano danni significativi. Questo assunto ha modellato…
CybercrimeUn nuovo report pubblicato dall’Huntress Tactical Response Team documenta un’intrusione estremamente sofisticata individuata nel dicembre 2025, nella quale un attore avanzato è riuscito a compromettere un’infrastruttura VMware ESXi sfruttando una VM escape, ovvero l’evasione da…
CybercrimeIn un ecosistema digitale sempre più interconnesso, le aziende dipendono da reti di fornitori e partner per operare in modo efficiente. Tuttavia, questa interdipendenza ha trasformato la supply chain in un nuovo perimetro critico della…
CybercrimeUn messaggio di cancellazione da Booking.com con una penale elevata sembra una pratica commerciale tipica di hotel e appartamenti. Ma è proprio questo tipo di email a dare il via a una nuova campagna malware,…
HackingUn nuovo script open source consente agli utenti di Windows 11 di disattivare in modo esteso le funzionalità di intelligenza artificiale integrate nel sistema operativo. Il progetto, sviluppato da Zoicware, si chiama RemoveWindowsAI e nasce…