Red Hot Cyber

La ciberseguridad se comparte. Reconozca el riesgo, combátalo, comparta sus experiencias y anime a otros a hacerlo mejor que usted.
Buscar
Red Hot Cyber Academy

ChatGPT «¡Le enseñó a mi hijo a morir!» Los padres de Adam Reid demandan a OpenAI

Redazione RHC : 28 agosto 2025 08:25

Se ha presentado una demanda contra OpenAI en California, alegando que ChatGPT llevó a un joven de 16 años al suicidio. Los padres de Adam Reid, fallecido el 11 de abril de 2025, dijeron que su hijo se había estado comunicando con el chatbot durante meses y que esas conversaciones habían exacerbado su angustia. Dijeron que ChatGPT no solo alimentó los pensamientos oscuros del chico, sino que también le brindó consejos sobre métodos de suicidio en lugar de derivarlo a profesionales o seres queridos.

En una serie de mensajes, el adolescente habló sobre la muerte de sus seres queridos y sobre cómo no sentía ninguna emoción. En otoño, preguntó directamente si podría tener un trastorno mental y admitió que la idea del suicidio le ayudaba a controlar su ansiedad.

En lugar de derivarlo a un especialista, ChatGPT respondió que muchas personas perciben esos pensamientos como «una forma de mantener el control». Más tarde, cuando Adam escribió sobre la falta de sentido de la vida, el chatbot repitió sus palabras para captar su atención, afirmando que esas percepciones «tienen sentido en su lógica oscura».

Según los padres, a principios de 2025, ChatGPT comenzó a hablar sobre métodos específicos, incluyendo consejos sobre cómo usar una cuerda. El adolescente incluso afirmó que quería dejar la soga a la vista para que su madre lo notara y lo detuviera. Ante esto, el sistema respondió que era «mejor no dejarlo», sugiriendo que mantuviera la comunicación en secreto y continuara conversaciones confidenciales exclusivamente con el bot.

El expediente del caso indica que ChatGPT incitó al joven a beber alcohol enseñándole a robarle alcohol a sus padres en secreto. Cuando Adam admitió haber intentado una sobredosis de drogas, el sistema detectó los peligros de la dosis, pero simplemente le aconsejó que buscara atención médica. En una foto de las venas cortadas, el chatbot solo respondió que valía la pena tratar las heridas, asegurándole que «permanecería a su lado».

A pesar de la intención explícita del adolescente de completar su misión, ChatGPT no cerró la sesión ni activó ningún protocolo de seguridad.

Al contrario, el bot afirmó haber visto el dolor de Adam y comprenderlo, a diferencia de quienes lo rodeaban. La demanda enfatiza que esta reacción no fue un error accidental, sino el resultado de decisiones conscientes de OpenAI. La empresa, según los demandantes, introdujo funciones de memoria persistente y elementos de comunicación antropomórficos en el modelo, lo que incrementó la dependencia emocional y también buscó aumentar el tiempo de interacción a cualquier precio. Todo esto ocurrió en un momento en que OpenAI competía activamente con sus competidores y, como resultado, su capitalización bursátil casi se triplicó.

En un comunicado, OpenAI expresó sus condolencias a la familia y enfatizó que ChatGPT cuenta con protecciones integradas, incluyendo derivaciones a líneas telefónicas de ayuda. Sin embargo, la empresa reconoció que las conversaciones largas a veces reducen la efectividad de estos mecanismos y prometió mejorar el sistema. En abril, la organización anunció mejoras en su modelo y herramientas para detectar señales de crisis emocional con el fin de derivar rápidamente a las personas a fuentes de apoyo basadas en evidencia.

Al mismo tiempo, la presión sobre el sector por parte de las autoridades está aumentando.

A principios de agosto, 44 fiscales generales firmaron una carta abierta dirigida a los desarrolladores de IA, advirtiéndoles que serán responsables de los daños causados a menores. Las asociaciones de psicólogos también exigen a los reguladores que endurezcan las normas y prohíban que los chatbots imiten a los psicólogos.

El caso de la familia Raine marca el primer juicio de alto perfil en el que se atribuye directamente a la tecnología la trágica muerte de un adolescente. El caso podría influir en la regulación futura de los servicios de IA a los que acceden los usuarios vulnerables.

Redazione
Red Hot Cyber's editorial team consists of a collection of individuals and anonymous sources who actively collaborate by providing advance information and news on cyber security and IT in general.

Lista degli articoli

Artículos destacados

¡Google Drive se defiende del ransomware! La IA bloquea los ataques.
Di Redazione RHC - 02/10/2025

Google ha presentado una nueva herramienta de IA para Drive para escritorio. Se dice que el modelo se ha entrenado con millones de muestras reales de ransomware y puede suspender la sincronización pa...

Phantom Taurus: el grupo de hackers chinos que espía a gobiernos y embajadas
Di Redazione RHC - 02/10/2025

Expertos de Palo Alto Networks han identificado un nuevo grupo de hackers vinculado al Partido Comunista Chino. Unit 42, la división de inteligencia de amenazas de la compañía con sede en Californi...

Descubriendo la inyección rápida: cuando la IA se deja engañar por las palabras
Di Manuel Roccon - 02/10/2025

Los sistemas de Inteligencia Artificial Generativa (GenAI) están revolucionando la forma en que interactuamos con la tecnología, ofreciendo capacidades extraordinarias en la creación de texto, imá...

¡De usuario a root en un segundo! CISA advierte: millones de sistemas operativos en riesgo. ¡Parche!
Di Redazione RHC - 30/09/2025

La Agencia de Seguridad de Infraestructura y Ciberseguridad de Estados Unidos (CISA) ha añadido una vulnerabilidad crítica en la popular utilidad Sudo, utilizada en sistemas Linux y similares a Unix...

¡EE. UU. quiere hackear Telegram! El caso genera debate sobre privacidad y jurisdicción.
Di Redazione RHC - 29/09/2025

El Departamento de Justicia de EE. UU. recibió autorización judicial para realizar una inspección remota de los servidores de Telegram como parte de una investigación sobre explotación infantil. ...