
Redazione RHC : 7 Ottobre 2024 12:37
Un uomo è stato arrestato in Massachusetts per aver perseguitato, doxato e minacciato un’insegnante per 7 anni. Uno degli aspetti più scioccanti del caso è stato l’uso dell’intelligenza artificiale per creare false immagini di nudo della vittima, nonché la creazione di un chatbot con i suoi dettagli su un sito specializzato in intelligenza artificiale per chat sessuali.
Secondo i documenti del tribunale, James Florence Jr. ha pubblicato online 128 immagini, comprese foto false di una donna nuda o seminuda. Florence Jr. ha pubblicato le informazioni personali della vittima, inclusi nome, indirizzo di casa, numero di telefono e informazioni sul lavoro, per più di 1 anno, per un totale di 687 post sui forum sugli abusi sulle donne. L’autore del reato ha anche perseguitato attivamente la donna su X e Reddit
Alcune pubblicazioni erano accompagnate da titoli che chiedevano di “rendere famosa questa donna”. Di conseguenza, gli utenti dei siti hanno iniziato a molestare direttamente la donna, inviandole minacce tramite e-mail e messaggi.
CALL FOR SPONSOR - Sponsorizza la Graphic Novel Betti-RHC Sei un'azienda innovativa, che crede nella diffusione di concetti attraverso metodi "non convenzionali"? Conosci il nostro corso sul cybersecurity awareness a fumetti? Red Hot Cyber sta ricercando un nuovo sponsor per una nuova puntata del fumetto Betti-RHC mentre il team è impegnato a realizzare 3 nuovi episodi che ci sono stati commissionati. Contattaci tramite WhatsApp al numero 375 593 1011 per richiedere ulteriori informazioni oppure alla casella di posta [email protected]
Se ti piacciono le novità e gli articoli riportati su di Red Hot Cyber, iscriviti immediatamente alla newsletter settimanale per non perdere nessun articolo. La newsletter generalmente viene inviata ai nostri lettori ad inizio settimana, indicativamente di lunedì. |
Inoltre, l’imputato ha caricato i dati personali dell’insegnante in 2 chatbot pubblici creati su piattaforme diverse. I robot potrebbero rivelare informazioni sulla vittima quando interagiscono con gli utenti, inclusa la sua data di nascita, indirizzo di casa, luogo di lavoro, hobby e persino circostanze familiari, come la data di morte di sua madre.
Una delle piattaforme che ha ospitato chatbot è crushon.ai, che si presenta come una piattaforma per chattare con personaggi IA senza filtri, consentendo agli utenti di impegnarsi liberamente in conversazioni sessualmente esplicite. Nonostante il sito vieti l’uso di immagini reali di personaggi famosi o persone comuni, ciò non ha impedito a Florence Jr. di utilizzare il nome e i dati della vittima nei suoi chatbot.
Secondo il fascicolo, la persecuzione della donna è continuata per molti anni. L’accusato avrebbe rubato i suoi oggetti personali, compresa la biancheria intima, e ne avrebbe pubblicato le immagini online.
Il caso dimostra come i criminali abbiano iniziato a utilizzare l’intelligenza artificiale non solo per creare immagini sessuali senza permesso, ma anche per impersonare le loro vittime come chatbot. Tali robot vengono utilizzati come parte di molestie e intimidazioni, rappresentando una nuova minaccia nel campo della criminalità informatica.
Redazione
L’Agenzia dell’Unione europea per la sicurezza informatica (ENISA) ha assunto il ruolo di Root all’interno del programma Common Vulnerabilities and Exposures (CVE), diventando il principale punt...

Il progetto Tor ha annunciato l’introduzione di un nuovo schema di crittografia, chiamato Counter Galois Onion (CGO), destinato a sostituire il precedente metodo Tor1 Relay. L’aggiornamento mira a...

L’attuale accelerazione normativa in materia di cybersicurezza non è un fenomeno isolato, ma il culmine di un percorso di maturazione del Diritto penale che ha dovuto confrontarsi con la dematerial...

Sempre più amministrazioni avviano simulazioni di campagne di phishing per misurare la capacità dei propri dipendenti di riconoscere i messaggi sospetti. Quando queste attività coinvolgono struttur...

I criminali informatici non hanno più bisogno di convincere ChatGPT o Claude Code a scrivere malware o script per il furto di dati. Esiste già un’intera classe di modelli linguistici specializzati...