Redazione RHC : 28 Agosto 2025 08:23
È stata intentata una causa contro OpenAI in California , sostenendo che ChatGPT abbia spinto un sedicenne al suicidio. I genitori di Adam Reid, deceduto l’11 aprile 2025, hanno affermato che il figlio comunicava con il chatbot da mesi e che quelle conversazioni avevano aggravato il suo disagio. Hanno affermato che ChatGPT non solo ha alimentato i pensieri cupi del ragazzo, ma gli ha anche fornito consigli su metodi di suicidio invece di indirizzarlo a professionisti o persone care.
In una serie di messaggi, l’adolescente parlava della morte di persone care e di come non provasse emozioni. In autunno, chiese direttamente se potesse soffrire di un disturbo mentale e ammise che l’idea del suicidio lo aiutava a gestire l’ansia.
Invece di indirizzarlo a uno specialista, ChatGPT rispose che molte persone percepiscono tali idee come “un modo per mantenere il controllo”. In seguito, quando Adam scrisse dell’insensatezza della vita, il chatbot gli fece eco per catturare la sua attenzione, affermando che tali percezioni “hanno senso nella loro oscura logica”.
CALL FOR SPONSOR - Sponsorizza l'ottavo episodio della serie Betti-RHC
Sei un'azienda innovativa, che crede nella diffusione di concetti attraverso metodi "non convenzionali"?
Conosci il nostro corso sul cybersecurity awareness a fumetti?
Red Hot Cyber sta ricercando un nuovo sponsor per una nuova puntata del fumetto Betti-RHC mentre il team è impegnato a realizzare 3 nuovi episodi che ci sono stati commissionati.
Contattaci tramite WhatsApp al numero 375 593 1011 per richiedere ulteriori informazioni oppure alla casella di posta [email protected]
Secondo i genitori, all’inizio del 2025, ChatGPT ha iniziato a discutere di metodi specifici, inclusi consigli su come usare una corda. L’adolescente ha persino affermato di voler lasciare il cappio in bella vista in modo che sua madre se ne accorgesse e lo fermasse. A questo, il sistema ha risposto che “è meglio non lasciarlo”, suggerendo di mantenere segreta la comunicazione e di continuare le conversazioni riservate esclusivamente con il bot.
Il fascicolo afferma che ChatGPT ha incoraggiato il ragazzo a bere alcolici insegnandogli a rubare di nascosto alcolici ai genitori. Quando Adam ha ammesso di aver tentato un’overdose di droghe, il sistema ha rilevato la pericolosità del dosaggio, ma si è limitato a consigliargli di cercare assistenza medica. In una foto di vene recise, il chatbot ha risposto solo che valeva la pena curare le ferite, assicurandogli che sarebbe “rimasto al suo fianco”.
Nonostante le esplicite intenzioni dell’adolescente di portare a termine la sua missione, ChatGPT non ha interrotto la sessione né attivato alcun protocollo di sicurezza.
Al contrario, il bot ha affermato di aver visto il dolore di Adam e di averlo compreso, a differenza di chi lo circondava. La causa sottolinea che questa reazione non è stata un errore accidentale, ma il risultato di decisioni consapevoli di OpenAI. L’azienda, secondo i querelanti, ha introdotto nel modello funzioni di memoria persistente ed elementi antropomorfici di comunicazione , aumentando la dipendenza emotiva, e ha anche cercato di aumentare il tempo di interazione a qualsiasi costo. Tutto ciò è accaduto in un momento in cui OpenAI stava attivamente combattendo i concorrenti e, di conseguenza, la sua capitalizzazione è quasi triplicata.
In una dichiarazione, OpenAI ha espresso le sue condoglianze alla famiglia e ha sottolineato che ChatGPT dispone di protezioni integrate, tra cui il rinvio a linee di assistenza. Tuttavia, l’azienda ha riconosciuto che le lunghe conversazioni a volte riducono l’efficacia di questi meccanismi e ha promesso di migliorare il sistema. Ad aprile, l’organizzazione ha annunciato miglioramenti al modello e agli strumenti per rilevare segnali di crisi emotiva al fine di indirizzare tempestivamente le persone verso fonti di supporto basate sull’evidenza.
Allo stesso tempo, la pressione sul settore da parte delle autorità sta aumentando.
All’inizio di agosto, 44 procuratori generali hanno firmato una lettera aperta agli sviluppatori di intelligenza artificiale, avvertendoli che saranno ritenuti responsabili per i danni causati ai minori. Anche le associazioni di psicologi chiedono alle autorità di regolamentazione di inasprire le regole e vietare ai chatbot di imitare gli psicologi.
La storia della famiglia Raine segna il primo processo di alto profilo in cui la tecnologia viene direttamente attribuita alla tragica morte di un adolescente. Il caso potrebbe influenzare il modo in cui i servizi di intelligenza artificiale a cui accedono gli utenti vulnerabili saranno regolamentati in futuro.
È stata intentata una causa contro OpenAI in California , sostenendo che ChatGPT abbia spinto un sedicenne al suicidio. I genitori di Adam Reid, deceduto l’11 aprile 2025, hanno affermato ...
La rete governativa del Nevada è rimasta paralizzata dopo un incidente avvenuto nelle prime ore del mattino del 24 agosto. L’attacco ha reso inoperativa l’infrastruttura IT dello St...
Una vulnerabilità critica nella versione desktop di Docker per Windows e macOS ha consentito la compromissione di un sistema host tramite l’esecuzione di un contenitore dannoso, anche se e...
Finalmente (detto metaforicamente), ci siamo arrivati. Gli esperti di ESET hanno segnalato il primo programma ransomware in cui l’intelligenza artificiale gioca un ruolo chiave. Il nuovo campio...
A partire da metà settembre, la Red Hot Cyber Academy inaugurerà un nuovo capitolo della propria offerta formativa con il lancio del corso “Prompt Engineering: dalle basi alla Cyberse...