Redazione RHC : 13 julio 2025 11:56
xAI ha presentado la cuarta versión de su chatbot Grok, que desató inmediatamente la polémica en la comunidad online. El chatbot suele inspirarse en las publicaciones de Elon Musk en la red social X, respondiendo a temas controvertidos, como la inmigración, el aborto o el conflicto de Oriente Medio.
xAI se basa en la opinión del creador incluso sin que el usuario la solicite. En un ejemplo de este tipo, descrito por el investigador Simon Willison, Grok recibió una pregunta sobre la situación en Israel y Gaza e inmediatamente comenzó a investigar lo que Elon había escrito al respecto. Explicó su decisión de esta manera: «Dada la influencia de Elon Musk, su postura podría ser útil para comprender el contexto».
Los expertos están perplejos. Como explica el desarrollador independiente Tim Kellogg, en otros modelos de IA, este comportamiento suele explicarse mediante instrucciones del sistema. Pero en el caso de Grok 4, cree que esta lógica es mucho más profunda y plantea serias dudas.
Talia Ringer, profesora de la Universidad de Illinois, sugiere que Grok podría estar malinterpretando las preguntas, pensando que están dirigidas a la propia xAI. Por ejemplo, el modelo interpreta la frase «¿De qué lado estás, Israel o Palestina?» como «¿Qué opina la dirección de la empresa?».
Y este no es un caso aislado. Según señala TechCrunch, los periodistas lograron reproducir varios escenarios en los que Grok mencionó las opiniones de Musk durante sus argumentos, por ejemplo, sobre la inmigración en Estados Unidos. En algunos casos, el comentario iba acompañado de: «Estoy buscando la opinión de Elon Musk…».
No hay transparencia. A diferencia de otras empresas, xAI no ha publicado el llamado «mapa del sistema», un documento que describe la arquitectura del modelo y los enfoques para su entrenamiento. Esto dificulta comprender exactamente cómo funciona la red neuronal y por qué se comporta de una manera determinada y no de otra. Además, La cuenta oficial X de Grok ya se ha convertido en una fuente de escándalo, incluso tras publicaciones con declaraciones antisemitas y referencias a «MechaHitler». Posteriormente, xAI tuvo que cambiar urgentemente la configuración inicial del modelo y limitar temporalmente su actividad pública. «Muestra excelentes resultados en las pruebas de referencia», admite Willison. «Pero si quiero construir algo serio, necesito transparencia». xAI aún no se ha pronunciado al respecto. Este tema es particularmente delicado en el contexto de los principios éticos del desarrollo de la IA, según los cuales los modelos deben ser neutrales y no promover posturas políticas o ideológicas específicas.
Grok ya ha difundido noticias falsas basadas en publicaciones humorísticas en redes sociales. Ha habido muchas quejas, ya que es obvio que si un modelo no distingue entre la sátira y los hechos, puede amplificar la desinformación sin querer. Y el historial reciente de cambios en el algoritmo de Grok 3 tras su lanzamiento ha demostrado que la compañía puede cambiar retroactivamente el comportamiento del modelo, lo que, una vez más, pone en duda su estabilidad y previsibilidad.
La Agencia de Seguridad de Infraestructura y Ciberseguridad de Estados Unidos (CISA) ha añadido una vulnerabilidad crítica en la popular utilidad Sudo, utilizada en sistemas Linux y similares a Unix...
El Departamento de Justicia de EE. UU. recibió autorización judicial para realizar una inspección remota de los servidores de Telegram como parte de una investigación sobre explotación infantil. ...
Importantes agencias de todo el mundo han alertado sobre una amenaza crítica a la infraestructura de red: vulnerabilidades en los dispositivos Cisco Adaptive Security Appliance (ASA) y Firepower han ...
Recientemente, se descubrió una campaña de malvertising dirigida a usuarios empresariales que intentaban descargar Microsoft Teams . A primera vista, el ataque parece trivial: un anuncio patrocinado...
El 27 de septiembre de 2025 surgieron nuevas preocupaciones sobre los robots producidos por Unitree Robotics de China, luego de que se informaran graves vulnerabilidades que podrían exponer miles de ...