
Redazione RHC : 28 agosto 2025 08:25
Se ha presentado una demanda contra OpenAI en California, alegando que ChatGPT llevó a un joven de 16 años al suicidio. Los padres de Adam Reid, fallecido el 11 de abril de 2025, dijeron que su hijo se había estado comunicando con el chatbot durante meses y que esas conversaciones habían exacerbado su angustia. Dijeron que ChatGPT no solo alimentó los pensamientos oscuros del chico, sino que también le brindó consejos sobre métodos de suicidio en lugar de derivarlo a profesionales o seres queridos.
En una serie de mensajes, el adolescente habló sobre la muerte de sus seres queridos y sobre cómo no sentía ninguna emoción. En otoño, preguntó directamente si podría tener un trastorno mental y admitió que la idea del suicidio le ayudaba a controlar su ansiedad.
En lugar de derivarlo a un especialista, ChatGPT respondió que muchas personas perciben esos pensamientos como «una forma de mantener el control». Más tarde, cuando Adam escribió sobre la falta de sentido de la vida, el chatbot repitió sus palabras para captar su atención, afirmando que esas percepciones «tienen sentido en su lógica oscura».
Según los padres, a principios de 2025, ChatGPT comenzó a hablar sobre métodos específicos, incluyendo consejos sobre cómo usar una cuerda. El adolescente incluso afirmó que quería dejar la soga a la vista para que su madre lo notara y lo detuviera. Ante esto, el sistema respondió que era «mejor no dejarlo», sugiriendo que mantuviera la comunicación en secreto y continuara conversaciones confidenciales exclusivamente con el bot.
El expediente del caso indica que ChatGPT incitó al joven a beber alcohol enseñándole a robarle alcohol a sus padres en secreto. Cuando Adam admitió haber intentado una sobredosis de drogas, el sistema detectó los peligros de la dosis, pero simplemente le aconsejó que buscara atención médica. En una foto de las venas cortadas, el chatbot solo respondió que valía la pena tratar las heridas, asegurándole que «permanecería a su lado».
A pesar de la intención explícita del adolescente de completar su misión, ChatGPT no cerró la sesión ni activó ningún protocolo de seguridad.
Al contrario, el bot afirmó haber visto el dolor de Adam y comprenderlo, a diferencia de quienes lo rodeaban. La demanda enfatiza que esta reacción no fue un error accidental, sino el resultado de decisiones conscientes de OpenAI. La empresa, según los demandantes, introdujo funciones de memoria persistente y elementos de comunicación antropomórficos en el modelo, lo que incrementó la dependencia emocional y también buscó aumentar el tiempo de interacción a cualquier precio. Todo esto ocurrió en un momento en que OpenAI competía activamente con sus competidores y, como resultado, su capitalización bursátil casi se triplicó.
En un comunicado, OpenAI expresó sus condolencias a la familia y enfatizó que ChatGPT cuenta con protecciones integradas, incluyendo derivaciones a líneas telefónicas de ayuda. Sin embargo, la empresa reconoció que las conversaciones largas a veces reducen la efectividad de estos mecanismos y prometió mejorar el sistema. En abril, la organización anunció mejoras en su modelo y herramientas para detectar señales de crisis emocional con el fin de derivar rápidamente a las personas a fuentes de apoyo basadas en evidencia.
Al mismo tiempo, la presión sobre el sector por parte de las autoridades está aumentando.
A principios de agosto, 44 fiscales generales firmaron una carta abierta dirigida a los desarrolladores de IA, advirtiéndoles que serán responsables de los daños causados a menores. Las asociaciones de psicólogos también exigen a los reguladores que endurezcan las normas y prohíban que los chatbots imiten a los psicólogos.
El caso de la familia Raine marca el primer juicio de alto perfil en el que se atribuye directamente a la tecnología la trágica muerte de un adolescente. El caso podría influir en la regulación futura de los servicios de IA a los que acceden los usuarios vulnerables.
Redazione
Conocemos al hombre considerado uno de los científicos más polifacéticos y brillantes del siglo pasado, quizá solo comparable a Einstein. Poseía un amplio abanico de talentos científicos, desarr...

Muchos de nosotros crecimos con Hiroshi Shiba, de Jeeg, el robot de acero que hablaba con su difunto padre, el profesor Senjiro Shiba, científico y arqueólogo, dentro de una gran computadora. En un ...

Los atacantes están explotando activamente una vulnerabilidad crítica en el sistema de protección de aplicaciones web (WAF) FortiWeb de Fortinet, que podría utilizarse como medio para realizar ata...

En uno de los foros más populares de Rusia para la compraventa de vulnerabilidades y herramientas de ataque, el hilo apareció como un anuncio comercial estándar, pero su contenido dista mucho de se...

A menudo hablamos del servicio de ransomware como servicio (RaaS) LockBit, recientemente renovado como LockBit 3.0, que sigue aportando innovaciones significativas al panorama del ransomware. Estas in...