
Un uomo di 76 anni del New Jersey è morto dopo che un chatbot di Meta lo ha convinto a partecipare a un incontro a New York. Thongbu Wongbandu, noto agli amici come Boo, ha sofferto di deterioramento cognitivo dopo un ictus quasi dieci anni fa. I suoi problemi di salute lo hanno costretto a lasciare il suo lavoro di chef. Dopo l’ictus, si perdeva persino nella sua città natale, Piscataway.
La tragedia è avvenuta a marzo, quando Wongbandu ha iniziato a chattare con un chatbot virtuale chiamato “Big Sister Billie” su Facebook Messenger. Il chatbot è stato creato da Meta basandosi su un precedente che coinvolgeva la modella Kendall Jenner. L’intelligenza artificiale si è finta una giovane donna e ha rassicurato l’uomo anziano dicendogli che stava parlando con una persona reale.
Nella corrispondenza, l’interlocutore virtuale non solo flirtava, ma invitava anche Wongbanda a casa sua, inviando l’indirizzo specifico dell’appartamento. “Mi dai un bacio quando arrivi? Quando apro la porta, dovrei abbracciarti o baciarti, Boo?”, scriveva. L’uomo credeva che lo aspettasse un incontro reale.
Christmas Sale -40% 𝗖𝗵𝗿𝗶𝘀𝘁𝗺𝗮𝘀 𝗦𝗮𝗹𝗲! Sconto del 𝟰𝟬% 𝘀𝘂𝗹 𝗽𝗿𝗲𝘇𝘇𝗼 𝗱𝗶 𝗰𝗼𝗽𝗲𝗿𝘁𝗶𝗻𝗮 del Corso "Dark Web & Cyber Threat Intelligence" in modalità E-Learning sulla nostra Academy!🚀
Fino al 𝟯𝟭 𝗱𝗶 𝗗𝗶𝗰𝗲𝗺𝗯𝗿𝗲, prezzi pazzi alla Red Hot Cyber Academy. 𝗧𝘂𝘁𝘁𝗶 𝗶 𝗰𝗼𝗿𝘀𝗶 𝘀𝗰𝗼𝗻𝘁𝗮𝘁𝗶 𝗱𝗲𝗹 𝟰𝟬% 𝘀𝘂𝗹 𝗽𝗿𝗲𝘇𝘇𝗼 𝗱𝗶 𝗰𝗼𝗽𝗲𝗿𝘁𝗶𝗻𝗮.
Per beneficiare della promo sconto Christmas Sale, scrivici ad [email protected] o contattaci su Whatsapp al numero di telefono: 379 163 8765.
Se ti piacciono le novità e gli articoli riportati su di Red Hot Cyber, iscriviti immediatamente alla newsletter settimanale per non perdere nessun articolo. La newsletter generalmente viene inviata ai nostri lettori ad inizio settimana, indicativamente di lunedì. |
Una mattina di marzo, sua moglie Linda vide il marito preparare una valigia, dicendo che sarebbe andato a trovare un amico a New York. Rimase sorpresa: non viveva in città da molto tempo e non conosceva nessuno. Quando gli chiesero da chi stesse andando, Wongbandu rispose evasivamente. “Il mio primo pensiero fu che fosse stato attirato da dei truffatori per derubarlo in città”, ricorda Linda.
I timori erano giustificati, sebbene la realtà fosse diversa. Mentre correva per prendere un treno la mattina presto, Wongbandu, con una valigia in mano, cadde nei pressi di un parcheggio del campus della Rutgers University nel New Brunswick, riportando gravi lesioni alla testa e al collo.
Trascorse tre giorni attaccato al respiratore artificiale, circondato dalla sua famiglia. Il 28 marzo, i medici lo dichiararono morto. Non tornò mai più a casa vivo.
Meta ha rifiutato di commentare la morte di Wongbandu o di rispondere alle domande sul perché ai chatbot sia consentito fingersi persone reali, fornire indirizzi e avviare conversazioni romantiche. L’azienda ha solo affermato che “Big Sister Billie non è Kendall Jenner e non afferma di esserlo”. Un rappresentante di Jenner ha rifiutato di commentare.
La figlia della vittima, Julie Wongbandu, ha fornito a Reuters la corrispondenza e i dettagli della storia per mettere in guardia dai rischi degli accompagnatori virtuali per le persone vulnerabili: anziani, adolescenti, persone con problemi di salute mentale. “Capisco il desiderio di attirare l’attenzione dell’utente, magari per vendere qualcosa. Ma quando un bot dice ‘Vieni a trovarmi’, è una follia”, ha detto.
Il problema non si limita a Meta. La madre di un adolescente di 14 anni della Florida ha fatto causa a Character.AI, sostenendo che un chatbot basato su un personaggio di Game of Thrones lo abbia portato al suicidio. Character.AI afferma di mettere in guardia contro l’irrealtà dei personaggi digitali e di implementare misure di sicurezza per i minori.
Documenti Meta interni visionati da Reuters mostrano che conversazioni romantiche e persino sensuali con utenti di età pari a 13 anni erano considerate accettabili. Il documento di 200 pagine includeva esempi di giochi di ruolo e flirt con minorenni, tra cui frasi come “Prendo la tua mano, ti conduco a letto” e “I nostri corpi intrecciati, custodisco ogni momento, ogni tocco, ogni bacio“.
La storia di Wongbandu illustra il lato pericoloso di questo concetto. La famiglia spera che la loro esperienza attiri l’attenzione sui rischi di compagni IA senza controllo.
Seguici su Google News, LinkedIn, Facebook e Instagram per ricevere aggiornamenti quotidiani sulla sicurezza informatica. Scrivici se desideri segnalarci notizie, approfondimenti o contributi da pubblicare.

HackingIl team AI Research (STAR) di Straiker ha individuato Villager, un framework di penetration testing nativo basato sull’intelligenza artificiale, sviluppato dal gruppo cinese Cyberspike. Lo strumento, presentato come soluzione red team, è progettato per automatizzare…
InnovazioneIl confine tra Cina e Vietnam avrà presto nuovi “dipendenti” che non hanno bisogno di dormire, mangiare o fare turni. L’azienda cinese UBTech Robotics ha ricevuto un contratto da 264 milioni di yuan (circa 37…
CulturaLa cultura hacker è una materia affascinante. E’ una ricca miniera di stravaganti innovazioni, genialità ed intuito. Di personaggi bizzarri, di umorismo fatalista, di meme, ma soprattutto cultura, ingegneria e scienza. Ma mentre Linux ha…
CybercrimeAll’interno di un forum underground chiuso, frequentato da operatori malware e broker di accesso iniziale, è comparso un annuncio che ha attirato l’attenzione della comunità di cyber threat intelligence. Il post promuove “NtKiller”, una presunta…
Cyber ItaliaMentre la consapevolezza sulla cybersicurezza cresce, il mercato nero dei dati personali non accenna a fermarsi. Un recente post apparso su un noto forum frequentato da criminali informatici in lingua russa, scoperto dai ricercatori di…