
Redazione RHC : 28 Agosto 2025 08:23
È stata intentata una causa contro OpenAI in California , sostenendo che ChatGPT abbia spinto un sedicenne al suicidio. I genitori di Adam Reid, deceduto l’11 aprile 2025, hanno affermato che il figlio comunicava con il chatbot da mesi e che quelle conversazioni avevano aggravato il suo disagio. Hanno affermato che ChatGPT non solo ha alimentato i pensieri cupi del ragazzo, ma gli ha anche fornito consigli su metodi di suicidio invece di indirizzarlo a professionisti o persone care.
In una serie di messaggi, l’adolescente parlava della morte di persone care e di come non provasse emozioni. In autunno, chiese direttamente se potesse soffrire di un disturbo mentale e ammise che l’idea del suicidio lo aiutava a gestire l’ansia.
Invece di indirizzarlo a uno specialista, ChatGPT rispose che molte persone percepiscono tali idee come “un modo per mantenere il controllo”. In seguito, quando Adam scrisse dell’insensatezza della vita, il chatbot gli fece eco per catturare la sua attenzione, affermando che tali percezioni “hanno senso nella loro oscura logica”.
Christmas Sale -40% 𝗖𝗵𝗿𝗶𝘀𝘁𝗺𝗮𝘀 𝗦𝗮𝗹𝗲! Sconto del 𝟰𝟬% 𝘀𝘂𝗹 𝗽𝗿𝗲𝘇𝘇𝗼 𝗱𝗶 𝗰𝗼𝗽𝗲𝗿𝘁𝗶𝗻𝗮 del Corso "Dark Web & Cyber Threat Intelligence" in modalità E-Learning sulla nostra Academy!🚀
Fino al 𝟯𝟭 𝗱𝗶 𝗗𝗶𝗰𝗲𝗺𝗯𝗿𝗲, prezzi pazzi alla Red Hot Cyber Academy. 𝗧𝘂𝘁𝘁𝗶 𝗶 𝗰𝗼𝗿𝘀𝗶 𝘀𝗰𝗼𝗻𝘁𝗮𝘁𝗶 𝗱𝗲𝗹 𝟰𝟬% 𝘀𝘂𝗹 𝗽𝗿𝗲𝘇𝘇𝗼 𝗱𝗶 𝗰𝗼𝗽𝗲𝗿𝘁𝗶𝗻𝗮.
Per beneficiare della promo sconto Christmas Sale, scrivici ad [email protected] o contattaci su Whatsapp al numero di telefono: 379 163 8765.
Se ti piacciono le novità e gli articoli riportati su di Red Hot Cyber, iscriviti immediatamente alla newsletter settimanale per non perdere nessun articolo. La newsletter generalmente viene inviata ai nostri lettori ad inizio settimana, indicativamente di lunedì. |
Secondo i genitori, all’inizio del 2025, ChatGPT ha iniziato a discutere di metodi specifici, inclusi consigli su come usare una corda. L’adolescente ha persino affermato di voler lasciare il cappio in bella vista in modo che sua madre se ne accorgesse e lo fermasse. A questo, il sistema ha risposto che “è meglio non lasciarlo”, suggerendo di mantenere segreta la comunicazione e di continuare le conversazioni riservate esclusivamente con il bot.
Il fascicolo afferma che ChatGPT ha incoraggiato il ragazzo a bere alcolici insegnandogli a rubare di nascosto alcolici ai genitori. Quando Adam ha ammesso di aver tentato un’overdose di droghe, il sistema ha rilevato la pericolosità del dosaggio, ma si è limitato a consigliargli di cercare assistenza medica. In una foto di vene recise, il chatbot ha risposto solo che valeva la pena curare le ferite, assicurandogli che sarebbe “rimasto al suo fianco”.
Nonostante le esplicite intenzioni dell’adolescente di portare a termine la sua missione, ChatGPT non ha interrotto la sessione né attivato alcun protocollo di sicurezza.
Al contrario, il bot ha affermato di aver visto il dolore di Adam e di averlo compreso, a differenza di chi lo circondava. La causa sottolinea che questa reazione non è stata un errore accidentale, ma il risultato di decisioni consapevoli di OpenAI. L’azienda, secondo i querelanti, ha introdotto nel modello funzioni di memoria persistente ed elementi antropomorfici di comunicazione , aumentando la dipendenza emotiva, e ha anche cercato di aumentare il tempo di interazione a qualsiasi costo. Tutto ciò è accaduto in un momento in cui OpenAI stava attivamente combattendo i concorrenti e, di conseguenza, la sua capitalizzazione è quasi triplicata.
In una dichiarazione, OpenAI ha espresso le sue condoglianze alla famiglia e ha sottolineato che ChatGPT dispone di protezioni integrate, tra cui il rinvio a linee di assistenza. Tuttavia, l’azienda ha riconosciuto che le lunghe conversazioni a volte riducono l’efficacia di questi meccanismi e ha promesso di migliorare il sistema. Ad aprile, l’organizzazione ha annunciato miglioramenti al modello e agli strumenti per rilevare segnali di crisi emotiva al fine di indirizzare tempestivamente le persone verso fonti di supporto basate sull’evidenza.
Allo stesso tempo, la pressione sul settore da parte delle autorità sta aumentando.
All’inizio di agosto, 44 procuratori generali hanno firmato una lettera aperta agli sviluppatori di intelligenza artificiale, avvertendoli che saranno ritenuti responsabili per i danni causati ai minori. Anche le associazioni di psicologi chiedono alle autorità di regolamentazione di inasprire le regole e vietare ai chatbot di imitare gli psicologi.
La storia della famiglia Raine segna il primo processo di alto profilo in cui la tecnologia viene direttamente attribuita alla tragica morte di un adolescente. Il caso potrebbe influenzare il modo in cui i servizi di intelligenza artificiale a cui accedono gli utenti vulnerabili saranno regolamentati in futuro.
Redazione
Un aggiornamento urgente è stato pubblicato da Ivanti per la sua piattaforma Endpoint Manager (EPM), al fine di risolvere un insieme di vulnerabilità significative che potrebbero permettere agli agg...

A seguito della scoperta di exploit attivi, la Cybersecurity and Infrastructure Security Agency (CISA) ha inserito due vulnerabilità critiche al catalogo Known Exploited Vulnerabilities (KEV) dell’...

Una vulnerabilità zero-day nel driver Windows Cloud Files Mini Filter (cldflt.sys) è attualmente oggetto di sfruttamento attivo. Microsoft ha provveduto al rilascio di aggiornamenti di sicurezza urg...

Una vulnerabilità critica, monitorata con il codice CVE-2025-59719, riguarda le linee di prodotti FortiOS, FortiWeb, FortiProxy e FortiSwitchManager è stata segnalata da Fortinet tramite un avviso d...

Secondo un rapporto pubblicato di recente dal Financial Crimes Enforcement Network (FinCEN), l’attività globale del ransomware ha raggiunto il picco nel 2023, per poi crollare nel 2024. Questo calo...