
Un uomo è stato arrestato in Massachusetts per aver perseguitato, doxato e minacciato un’insegnante per 7 anni. Uno degli aspetti più scioccanti del caso è stato l’uso dell’intelligenza artificiale per creare false immagini di nudo della vittima, nonché la creazione di un chatbot con i suoi dettagli su un sito specializzato in intelligenza artificiale per chat sessuali.
Secondo i documenti del tribunale, James Florence Jr. ha pubblicato online 128 immagini, comprese foto false di una donna nuda o seminuda. Florence Jr. ha pubblicato le informazioni personali della vittima, inclusi nome, indirizzo di casa, numero di telefono e informazioni sul lavoro, per più di 1 anno, per un totale di 687 post sui forum sugli abusi sulle donne. L’autore del reato ha anche perseguitato attivamente la donna su X e Reddit
Alcune pubblicazioni erano accompagnate da titoli che chiedevano di “rendere famosa questa donna”. Di conseguenza, gli utenti dei siti hanno iniziato a molestare direttamente la donna, inviandole minacce tramite e-mail e messaggi.
Inoltre, l’imputato ha caricato i dati personali dell’insegnante in 2 chatbot pubblici creati su piattaforme diverse. I robot potrebbero rivelare informazioni sulla vittima quando interagiscono con gli utenti, inclusa la sua data di nascita, indirizzo di casa, luogo di lavoro, hobby e persino circostanze familiari, come la data di morte di sua madre.
Una delle piattaforme che ha ospitato chatbot è crushon.ai, che si presenta come una piattaforma per chattare con personaggi IA senza filtri, consentendo agli utenti di impegnarsi liberamente in conversazioni sessualmente esplicite. Nonostante il sito vieti l’uso di immagini reali di personaggi famosi o persone comuni, ciò non ha impedito a Florence Jr. di utilizzare il nome e i dati della vittima nei suoi chatbot.
Secondo il fascicolo, la persecuzione della donna è continuata per molti anni. L’accusato avrebbe rubato i suoi oggetti personali, compresa la biancheria intima, e ne avrebbe pubblicato le immagini online.
Il caso dimostra come i criminali abbiano iniziato a utilizzare l’intelligenza artificiale non solo per creare immagini sessuali senza permesso, ma anche per impersonare le loro vittime come chatbot. Tali robot vengono utilizzati come parte di molestie e intimidazioni, rappresentando una nuova minaccia nel campo della criminalità informatica.
Ti è piaciuto questo articolo? Ne stiamo discutendo nella nostra Community su LinkedIn, Facebook e Instagram. Seguici anche su Google News, per ricevere aggiornamenti quotidiani sulla sicurezza informatica o Scrivici se desideri segnalarci notizie, approfondimenti o contributi da pubblicare.

CybercrimeIl forum RAMP (Russian Anonymous Marketplace), uno dei principali punti di riferimento del cybercrime underground internazionale, è stato ufficialmente chiuso e sequestrato dalle forze dell’ordine statunitensi. La notizia è emersa dopo che il dominio associato…
DirittiOggi è il 28 gennaio e, come ogni anno da un bel po’ di tempo a questa parte, ci ritroviamo a celebrare la Giornata europea della protezione dei dati. È una roba che nasce nel…
Cyber NewsUn aggiornamento di sicurezza è stato rilasciato dai responsabili della manutenzione di OpenSSL, la libreria crittografica, al fine di risolvere circa una dozzina di vulnerabilità che includono, tra gli altri, errori logici e corruzioni di…
CyberpoliticaNon è la prima iniziativa che spunta su questo fronte, ultimamente. Anzi, se ne sentono diverse, una dopo l’altra. Ed è quasi inevitabile: autonomia tecnologica e sicurezza nazionale stanno diventando un terreno sempre più battuto,…
CulturaC’è questa idea sbagliata, un po’ romantica volendo, per cui il ransomware è “roba da IT”: qualche server in crisi, due notti in bianco, poi si riparte e fine… La realtà, soprattutto per un’azienda quotata…