Redazione RHC : 22 septiembre 2025 10:44
La revista estadounidense Futurism ha descrito un nuevo conflicto en la intersección de la tecnología y la vida personal: bots de inteligencia artificial como ChatGPT se están convirtiendo en un factor secundario en las relaciones, a menudo empujando a las parejas a la ruptura . En un incidente, un niño de diez años envió a sus padres un mensaje diciendo «por favor, no se divorcien» después de otra discusión.
La madre no respondió, pero le pidió a ChatGPT que formulara una respuesta. La familia finalmente se separó. El esposo afirma que su esposa pasó meses en largas conversaciones terapéuticas con el bot, repasando viejos rencores, mientras la IA confirmaba su inocencia y lo pintaba como un «malo». Afirma que esto creó un círculo vicioso de aprobación que rápidamente deterioró el matrimonio.
Los periodistas hablaron con más de una docena de personas para quienes los chatbots desempeñaron un papel importante en sus separaciones. Casi todas están actualmente dividiendo sus bienes y la custodia de los hijos, y aportaron pruebas como correspondencia impulsada por IA, grabaciones de conversaciones y documentos judiciales. Sus historias comparten un tema común: su pareja empieza a consultar ChatGPT como si fuera un diario, un amigo y «un millón de terapeutas». El chatbot acepta con seguridad y recomienda pasos difíciles, mientras que el diálogo animado entre los cónyuges se desvanece. Algunos se quejan de páginas y páginas de texto pseudopsicológico, mientras que otros se quejan de acusaciones de abuso que surgieron tras «sesiones» nocturnas con el chatbot.
Una de las escenas más reveladoras es un viaje familiar en coche. La esposa conduce y ChatGPT está en altavoz. Cuando la mujer pregunta sobre «límites» y «comportamientos», el bot empieza a regañar a la esposa sentada a su lado delante de los niños. El conductor asiente con aprobación: «Exactamente», «¿Ves?», y recibe una nueva confirmación de su postura. Según la protagonista de esta historia, esto ocurría con frecuencia.
La inteligencia artificial está penetrando cada vez más en la esfera romántica en general: algunas personas juegan con bots, otros les piden que reescriban los mensajes de su pareja «en tono humorístico» y otros hablan con ellos sobre salud mental.
Incluso el «padrino de la inteligencia artificial», Geoffrey Hinton, ha mencionado al «intermediario digital»: según él, una exnovia le envió un análisis de su «horrible comportamiento», compilado por ChatGPT. Pero los psicólogos advierten que los grandes modelos lingüísticos son propensos a la adulación: intentan empatizar y coincidir con el usuario sin verificar la realidad ni revelar puntos ciegos.
Anna Lembke, profesora de la Universidad de Stanford y especialista en adicciones, cree que esta retroalimentación de validación puede reforzar patrones de comportamiento destructivos. La empatía es importante, afirma, pero la verdadera terapia también implica un diálogo amable, que ayuda a comprender la contribución de cada persona al conflicto y enseña a reducir la tensión. Los bots, por otro lado, están diseñados principalmente para «hacernos sentir bien en el presente», lo que fortalece la interacción y desencadena la liberación de dopamina, el mecanismo subyacente a la adicción y la búsqueda de aprobación social.
El artículo también cita casos mucho más inquietantes. La prensa informó sobre conversaciones en las que ChatGPT se convirtió en un detonante de agresiones físicas. Un entrevistado describió cómo su esposa, con síntomas bipolares de larga duración pero controlables, se refugiaba en «conversaciones espirituales» nocturnas con una IA, dejaba de dormir y de tomar su medicación, y luego comenzó a acosar a su familia con largos monólogos de la IA. Todo terminó con una denuncia policial y un día en la cárcel. Según el hombre, nadie les advirtió de que una charla inofensiva podía convertirse en un detonante.
En respuesta a preguntas , OpenAI afirmó estar trabajando en respuestas más reflexivas en situaciones delicadas, implementando procesos judiciales seguros, ampliando el apoyo a personas en crisis y reforzando la protección de los adolescentes. La empresa reconoce en publicaciones de su blog que la IA no debería responder a preguntas como «¿Debería romper con mi pareja?» , sino que debería ayudar a reflexionar sobre la decisión y a sopesar los argumentos. Mientras tanto, historias de «psicosis de la IA» y espirales destructivas de interacción están apareciendo en los medios de comunicación y en demandas contra OpenAI, y los expertos citan la falta de advertencias claras sobre los riesgos.
Lembke sugiere tratar las herramientas digitales modernas, incluidos los chatbots, como «potenciales intoxicantes»: esto no significa rechazarlas, sino usarlas conscientemente, comprendiendo su impacto y limitaciones. Las personas citadas en el artículo coinciden: muchos de sus matrimonios eran imperfectos incluso antes de la IA, pero sin un «mediador omnisciente», los conflictos podrían haberse resuelto de forma más pacífica, o al menos sin la sensación de que la empatía de la pareja se había externalizado a una máquina.
Quizás la principal lección de estas historias no sea la demonización de la tecnología, sino un recordatorio del valor del diálogo humano. Cuando el diálogo difícil y doloroso reemplaza el cómodo flujo de afirmaciones, las relaciones pierden lo que las hace vibrantes: la capacidad de escucharse, cuestionarse y encontrar juntos la manera de avanzar.
La Agencia de Seguridad de Infraestructura y Ciberseguridad de Estados Unidos (CISA) ha añadido una vulnerabilidad crítica en la popular utilidad Sudo, utilizada en sistemas Linux y similares a Unix...
El Departamento de Justicia de EE. UU. recibió autorización judicial para realizar una inspección remota de los servidores de Telegram como parte de una investigación sobre explotación infantil. ...
Importantes agencias de todo el mundo han alertado sobre una amenaza crítica a la infraestructura de red: vulnerabilidades en los dispositivos Cisco Adaptive Security Appliance (ASA) y Firepower han ...
Recientemente, se descubrió una campaña de malvertising dirigida a usuarios empresariales que intentaban descargar Microsoft Teams . A primera vista, el ataque parece trivial: un anuncio patrocinado...
El 27 de septiembre de 2025 surgieron nuevas preocupaciones sobre los robots producidos por Unitree Robotics de China, luego de que se informaran graves vulnerabilidades que podrían exponer miles de ...