Redazione RHC : 10 septiembre 2025 09:18
Estamos dando pasos agigantados hacia el verdadero ouroboros, o la serpiente que se muerde la cola. Hace unas semanas comentamos que el tráfico humano en internet está disminuyendo drásticamente en comparación con el tráfico de bots, que hoy en día supera el 50% del tráfico total.
Sam Altman, director ejecutivo de OpenAI y accionista de Reddit, confesó que los feeds de «AI Twitter» y «AI Reddit» le parecen cada vez más antinaturales, hasta el punto de convertirse en una auténtica señal de alarma.
La señal vino del subreddit. En r/Claudecode, donde en los últimos días muchos usuarios han reportado haberse cambiado a Codex, el servicio de programación de OpenAI lanzado en mayo para competir con Claude Code de Anthropic. La oleada de publicaciones casi idénticas hizo sospechar a Altman que se trataba de contenido generado por bots, a pesar de saber que el crecimiento de Codex era real y que existía una auténtica dinámica comunitaria detrás.
Al analizar su percepción, Altman identificó varios factores: un lenguaje cada vez más similar al de los modelos de IA, comunidades «siempre en línea» que se mueven masivamente con tonos uniformes, fluctuaciones emocionales típicas del hype —del pesimismo absoluto a la euforia— y la amplificación que proporcionan los algoritmos de recomendación y la monetización de las plataformas. A esto se suman las campañas encubiertas orquestadas por empresas y, por supuesto, la presencia de bots reales.
La paradoja es evidente: los modelos de OpenAI se entrenaron con contenido de Reddit y se diseñaron para parecer humanos, incluso imitando signos de puntuación como los guiones largos. Altman, quien también fue miembro de la junta directiva de Reddit y aún es accionista, se encuentra lidiando con un ecosistema donde la autenticidad y la automatización se difuminan.
Las dudas aumentaron tras el lanzamiento de GPT-5, cuando las comunidades de OpenAI en Reddit y X criticaron el modelo, acusándolo de consumir demasiados créditos y de no completar ciertas tareas. Altman respondió con una sesión de preguntas y respuestas en r/GPT, reconociendo los problemas y prometiendo soluciones. Sin embargo, la confianza de la comunidad no ha vuelto a sus niveles anteriores. Esto plantea una pregunta crucial: ¿dónde termina la reacción genuina del usuario y dónde comienza la naturaleza reflexiva del texto generado automáticamente?
El fenómeno de los bots se ha vuelto sistémico. Según Imperva, para 2024, más de la mitad del tráfico de internet no provenía de humanos, y una parte significativa estaba compuesta por sistemas basados en LLM. Grok, la IA de X, también estima la presencia de cientos de millones de cuentas de bots, aunque sin proporcionar detalles. En este escenario, algunos observadores interpretan las palabras de Altman como un indicio de una posible «red social OpenAI», cuyas primeras pruebas se dice que ya se habrán realizado en 2025, aunque no está claro si el proyecto se hará realidad o si realmente garantizará un espacio libre de bots.
Mientras tanto, la investigación científica muestra que incluso las comunidades compuestas completamente por bots tienden a reproducir dinámicas humanas: un estudio de la Universidad de Ámsterdam ha demostrado que estas redes terminan dividiéndose en clanes y cámaras de eco. Por lo tanto, la línea entre la escritura humana y la artificial se está difuminando cada vez más. Altman simplemente señala el síntoma de un problema más profundo: las plataformas donde las personas y los modelos se imitan mutuamente terminan hablando con una sola voz. Y distinguir la autenticidad se vuelve cada vez más difícil, lo que encarece la confianza, incluso cuando hay un crecimiento real detrás.
Sería fantástico contar con un agente de IA capaz de analizar automáticamente el código de nuestros proyectos, identificar errores de seguridad, generar correcciones y lanzarlos inmediatamente a p...
Una falla crítica de 13 años de antigüedad, conocida como RediShell , en Redis permite la ejecución remota de código (RCE) , lo que brinda a los atacantes la capacidad de obtener control total de...
Se ha dicho muy poco sobre este acontecimiento, que personalmente considero de importancia estratégica y signo de un cambio importante en la gestión de las vulnerabilidades indocumentadas en Italia....
Investigadores de Trend Micro han detectado una campaña de malware a gran escala dirigida a usuarios de Brasil. Se distribuye a través de la versión de escritorio de WhatsApp y se caracteriza por u...
Oracle ha publicado un aviso de seguridad sobre una vulnerabilidad crítica identificada como CVE-2025-61882 en Oracle E-Business Suite . Esta falla puede explotarse remotamente sin autenticación , l...