Redazione RHC : 10 septiembre 2025 09:18
Estamos dando pasos agigantados hacia el verdadero ouroboros, o la serpiente que se muerde la cola. Hace unas semanas comentamos que el tráfico humano en internet está disminuyendo drásticamente en comparación con el tráfico de bots, que hoy en día supera el 50% del tráfico total.
Sam Altman, director ejecutivo de OpenAI y accionista de Reddit, confesó que los feeds de «AI Twitter» y «AI Reddit» le parecen cada vez más antinaturales, hasta el punto de convertirse en una auténtica señal de alarma.
La señal vino del subreddit. En r/Claudecode, donde en los últimos días muchos usuarios han reportado haberse cambiado a Codex, el servicio de programación de OpenAI lanzado en mayo para competir con Claude Code de Anthropic. La oleada de publicaciones casi idénticas hizo sospechar a Altman que se trataba de contenido generado por bots, a pesar de saber que el crecimiento de Codex era real y que existía una auténtica dinámica comunitaria detrás.
Al analizar su percepción, Altman identificó varios factores: un lenguaje cada vez más similar al de los modelos de IA, comunidades «siempre en línea» que se mueven masivamente con tonos uniformes, fluctuaciones emocionales típicas del hype —del pesimismo absoluto a la euforia— y la amplificación que proporcionan los algoritmos de recomendación y la monetización de las plataformas. A esto se suman las campañas encubiertas orquestadas por empresas y, por supuesto, la presencia de bots reales.
La paradoja es evidente: los modelos de OpenAI se entrenaron con contenido de Reddit y se diseñaron para parecer humanos, incluso imitando signos de puntuación como los guiones largos. Altman, quien también fue miembro de la junta directiva de Reddit y aún es accionista, se encuentra lidiando con un ecosistema donde la autenticidad y la automatización se difuminan.
Las dudas aumentaron tras el lanzamiento de GPT-5, cuando las comunidades de OpenAI en Reddit y X criticaron el modelo, acusándolo de consumir demasiados créditos y de no completar ciertas tareas. Altman respondió con una sesión de preguntas y respuestas en r/GPT, reconociendo los problemas y prometiendo soluciones. Sin embargo, la confianza de la comunidad no ha vuelto a sus niveles anteriores. Esto plantea una pregunta crucial: ¿dónde termina la reacción genuina del usuario y dónde comienza la naturaleza reflexiva del texto generado automáticamente?
El fenómeno de los bots se ha vuelto sistémico. Según Imperva, para 2024, más de la mitad del tráfico de internet no provenía de humanos, y una parte significativa estaba compuesta por sistemas basados en LLM. Grok, la IA de X, también estima la presencia de cientos de millones de cuentas de bots, aunque sin proporcionar detalles. En este escenario, algunos observadores interpretan las palabras de Altman como un indicio de una posible «red social OpenAI», cuyas primeras pruebas se dice que ya se habrán realizado en 2025, aunque no está claro si el proyecto se hará realidad o si realmente garantizará un espacio libre de bots.
Mientras tanto, la investigación científica muestra que incluso las comunidades compuestas completamente por bots tienden a reproducir dinámicas humanas: un estudio de la Universidad de Ámsterdam ha demostrado que estas redes terminan dividiéndose en clanes y cámaras de eco. Por lo tanto, la línea entre la escritura humana y la artificial se está difuminando cada vez más. Altman simplemente señala el síntoma de un problema más profundo: las plataformas donde las personas y los modelos se imitan mutuamente terminan hablando con una sola voz. Y distinguir la autenticidad se vuelve cada vez más difícil, lo que encarece la confianza, incluso cuando hay un crecimiento real detrás.
En un drástico cambio de rumbo, Nepal ha levantado el bloqueo nacional de las redes sociales impuesto la semana pasada después de que provocara protestas masivas de jóvenes y causara al menos 19 mu...
La Dark Web es una parte de internet a la que no se puede acceder con navegadores estándar (Chrome, Firefox, Edge). Para acceder a ella, se necesitan herramientas específicas como el navegador Tor, ...
El equipo de Darklab, la comunidad de expertos en inteligencia de amenazas de Red Hot Cyber, ha identificado un anuncio en el mercado de la dark web «Tor Amazon», la contraparte criminal del popular...
La Conferencia Red Hot Cyber se ha convertido en un evento habitual para la comunidad Red Hot Cyber y para cualquier persona que trabaje o esté interesada en el mundo de las tecnologías digitales y ...
El lanzamiento de Hexstrike-AI marca un punto de inflexión en el panorama de la ciberseguridad. El framework, considerado una herramienta de última generación para equipos rojos e investigadores, e...