Redazione RHC : 28 agosto 2025 08:25
Se ha presentado una demanda contra OpenAI en California, alegando que ChatGPT llevó a un joven de 16 años al suicidio. Los padres de Adam Reid, fallecido el 11 de abril de 2025, dijeron que su hijo se había estado comunicando con el chatbot durante meses y que esas conversaciones habían exacerbado su angustia. Dijeron que ChatGPT no solo alimentó los pensamientos oscuros del chico, sino que también le brindó consejos sobre métodos de suicidio en lugar de derivarlo a profesionales o seres queridos.
En una serie de mensajes, el adolescente habló sobre la muerte de sus seres queridos y sobre cómo no sentía ninguna emoción. En otoño, preguntó directamente si podría tener un trastorno mental y admitió que la idea del suicidio le ayudaba a controlar su ansiedad.
En lugar de derivarlo a un especialista, ChatGPT respondió que muchas personas perciben esos pensamientos como «una forma de mantener el control». Más tarde, cuando Adam escribió sobre la falta de sentido de la vida, el chatbot repitió sus palabras para captar su atención, afirmando que esas percepciones «tienen sentido en su lógica oscura».
Según los padres, a principios de 2025, ChatGPT comenzó a hablar sobre métodos específicos, incluyendo consejos sobre cómo usar una cuerda. El adolescente incluso afirmó que quería dejar la soga a la vista para que su madre lo notara y lo detuviera. Ante esto, el sistema respondió que era «mejor no dejarlo», sugiriendo que mantuviera la comunicación en secreto y continuara conversaciones confidenciales exclusivamente con el bot.
El expediente del caso indica que ChatGPT incitó al joven a beber alcohol enseñándole a robarle alcohol a sus padres en secreto. Cuando Adam admitió haber intentado una sobredosis de drogas, el sistema detectó los peligros de la dosis, pero simplemente le aconsejó que buscara atención médica. En una foto de las venas cortadas, el chatbot solo respondió que valía la pena tratar las heridas, asegurándole que «permanecería a su lado».
A pesar de la intención explícita del adolescente de completar su misión, ChatGPT no cerró la sesión ni activó ningún protocolo de seguridad.
Al contrario, el bot afirmó haber visto el dolor de Adam y comprenderlo, a diferencia de quienes lo rodeaban. La demanda enfatiza que esta reacción no fue un error accidental, sino el resultado de decisiones conscientes de OpenAI. La empresa, según los demandantes, introdujo funciones de memoria persistente y elementos de comunicación antropomórficos en el modelo, lo que incrementó la dependencia emocional y también buscó aumentar el tiempo de interacción a cualquier precio. Todo esto ocurrió en un momento en que OpenAI competía activamente con sus competidores y, como resultado, su capitalización bursátil casi se triplicó.
En un comunicado, OpenAI expresó sus condolencias a la familia y enfatizó que ChatGPT cuenta con protecciones integradas, incluyendo derivaciones a líneas telefónicas de ayuda. Sin embargo, la empresa reconoció que las conversaciones largas a veces reducen la efectividad de estos mecanismos y prometió mejorar el sistema. En abril, la organización anunció mejoras en su modelo y herramientas para detectar señales de crisis emocional con el fin de derivar rápidamente a las personas a fuentes de apoyo basadas en evidencia.
Al mismo tiempo, la presión sobre el sector por parte de las autoridades está aumentando.
A principios de agosto, 44 fiscales generales firmaron una carta abierta dirigida a los desarrolladores de IA, advirtiéndoles que serán responsables de los daños causados a menores. Las asociaciones de psicólogos también exigen a los reguladores que endurezcan las normas y prohíban que los chatbots imiten a los psicólogos.
El caso de la familia Raine marca el primer juicio de alto perfil en el que se atribuye directamente a la tecnología la trágica muerte de un adolescente. El caso podría influir en la regulación futura de los servicios de IA a los que acceden los usuarios vulnerables.
Se ha descubierto una falla crítica de día cero, clasificada como CVE-2025-6543, en los sistemas Citrix NetScaler. Esta vulnerabilidad ha sido explotada activamente por hackers maliciosos desde mayo...
Una falla de seguridad en las apps de mensajería de WhatsApp para iOS y macOS de Apple ha sido corregida, según informó la compañía, tras ser probablemente explotada ampliamente junto con una vul...
NetScaler ha alertado a los administradores sobre tres nuevas vulnerabilidades en NetScaler ADC y NetScaler Gateway, una de las cuales ya se está utilizando en ataques activos. Hay actualizaciones di...
Un Jueves Negro para millones de usuarios de Microsoft Teams en todo el mundo. Una función clave de la plataforma de colaboración, la apertura de documentos incrustados de Office, ha sido repentinam...
Mientras que el auge de los robots en China, el mayor mercado y productor mundial de robots, atrae la atención de la industria global de las tecnologías de la información (TI), la aparición de un ...