Redazione RHC : 2 julio 2025 07:39
Las personas tienden a ser más comprensivas con los chatbots si los ven como verdaderos interlocutores. Esta es la conclusión a la que llegaron científicos de la Universidad Hebrea de Jerusalén tras una serie de estudios a gran escala publicados en la revista Nature Human Behaviour.
En nueve experimentos, los investigadores reclutaron a más de 6200 participantes. Todos interactuaron con chatbots basándose en grandes modelos de lenguaje (LLM), pero algunos creían estar hablando con un humano. Este fue un factor clave en cómo percibieron el apoyo y la empatía de su interlocutor.
Como se señala en el artículo, los modelos lingüísticos modernos demuestran una notable capacidad para comprender los contextos sociales y emocionales. No solo son capaces de analizar el estado emocional del interlocutor, sino también de imitar hábilmente expresiones de cariño, compasión y apoyo.
Los autores del estudio señalan que, a pesar de las capacidades empáticas objetivas de la IA, las personas son mucho más propensas a rechazar el apoyo emocional si saben que se están comunicando con una máquina. Los sujetos a quienes se les dijo que sus respuestas habían sido escritas por un humano, aunque esto no fuera cierto, calificaron los mensajes como más empáticos y comprensivos. También estaban dispuestos a esperar más tiempo por una respuesta, creyendo que había sido preparada por una persona real.
Al mismo tiempo, los datos mostraron que la creencia de que la IA participaba en la preparación de las respuestas supuestamente humanas reducía la percepción de empatía. Este efecto persistió independientemente de la longitud de las respuestas, la velocidad con la que se recibieron y el modelo de IA específico utilizado en el experimento.
Además, el estudio reveló que las personas eligen sistemáticamente la interacción humana en lugar de la IA cuando necesitan apoyo emocional, lo que demuestra la profunda necesidad de un elemento humano al hablar de temas delicados y personales.
El informe también destaca una paradoja interesante: en términos de precisión formal y velocidad de procesamiento de la información, la IA es más capaz de comprender el estado emocional de una persona. A diferencia de los humanos, quienes pueden encontrar aburrida la empatía, la IA reconoce instantáneamente las señales emocionales y no experimenta fatiga ni agotamiento. Sin embargo, los humanos aún tienen dificultades para percibir dicha «empatía» de las máquinas. Las barreras psicológicas y los sesgos juegan un papel clave, incluso cuando la IA demuestra objetivamente un alto nivel de empatía. Curiosamente, otro estudio observó previamente que la IA puede mostrar signos de ansiedad. En concreto, el modelo GPT-4 mostró un aumento en las puntuaciones de ansiedad, medidas mediante pruebas psicológicas estándar, tras trabajar con escenarios traumáticos.
Estos hallazgos plantean serias preguntas sobre la naturaleza de la inteligencia artificial, sus límites y el futuro de las interacciones entre humanos y máquinas en situaciones de alta carga emocional. A pesar de los claros avances tecnológicos, la percepción pública sigue siendo más conservadora y la confianza en la IA es limitada.
La Agencia de Seguridad de Infraestructura y Ciberseguridad de Estados Unidos (CISA) ha añadido una vulnerabilidad crítica en la popular utilidad Sudo, utilizada en sistemas Linux y similares a Unix...
El Departamento de Justicia de EE. UU. recibió autorización judicial para realizar una inspección remota de los servidores de Telegram como parte de una investigación sobre explotación infantil. ...
Importantes agencias de todo el mundo han alertado sobre una amenaza crítica a la infraestructura de red: vulnerabilidades en los dispositivos Cisco Adaptive Security Appliance (ASA) y Firepower han ...
Recientemente, se descubrió una campaña de malvertising dirigida a usuarios empresariales que intentaban descargar Microsoft Teams . A primera vista, el ataque parece trivial: un anuncio patrocinado...
El 27 de septiembre de 2025 surgieron nuevas preocupaciones sobre los robots producidos por Unitree Robotics de China, luego de que se informaran graves vulnerabilidades que podrían exponer miles de ...