Redazione RHC : 15 octubre 2025 14:33
OpenAI está preparando un cambio importante en las reglas de ChatGPT: a partir de diciembre, los usuarios con edad verificada podrán interactuar con contenido para adultos, incluida la erótica.
El director ejecutivo de la compañía, Sam Altman, anunció el cambio, enfatizando su compromiso con el respeto a los usuarios adultos. Este cambio formará parte del sistema de restricción de edad que OpenAI pretende implementar por completo para finales de año.
La compañía había anunciado previamente su intención de permitir el desarrollo de apps ChatGPT con contenido para adultos, sujeto a todos los controles necesarios y verificación de edad. Ahora queda claro que no se trata solo de desarrollos externos: la propia plataforma comenzará a admitir diálogos explícitos con inteligencia artificial, sujetos a las condiciones de acceso adecuadas.
Esta medida parece una continuación lógica de la competencia en el segmento de dispositivos de IA personalizados. Por ejemplo, la startup xAI de Elon Musk ya ha lanzado compañeros virtuales que guiñan el ojo en forma de modelos de anime en 3D, disponibles en la app Grok. Sin embargo, a diferencia de las soluciones de xAI, actualmente más adecuadas para videojuegos, OpenAI prioriza la controlabilidad y la seguridad psicológica.
Otros anuncios incluyen la reintroducción de GPT-4o como opción en ChatGPT, tras las críticas al nuevo motor GPT-5 predeterminado por su falta de humanidad. OpenAI reconoció que la implementación excesivamente cautelosa de las restricciones de salud mental hizo que su IA fuera menos útil y agradable para la mayoría de los usuarios. Esto impulsó a la compañía a crear herramientas para identificar a los usuarios con dificultades y relajar gradualmente los filtros cuando fuera seguro hacerlo.
Para desarrollar una estrategia a largo plazo para situaciones de comunicación sensibles, OpenAI creó un comité asesor interno sobre bienestar, compuesto por ocho expertos que estudian el impacto de la tecnología digital en la salud mental. Sin embargo, como señala Ars Technica, ni un solo experto en prevención del suicidio formó parte del comité, a pesar de los llamamientos públicos de organizaciones relevantes para fortalecer la protección de los usuarios vulnerables.
Todos estos pasos señalan el compromiso de OpenAI de adoptar una actitud más flexible y diversa en el uso de sus herramientas de IA , al tiempo que demuestran una voluntad de adaptarse a las demandas sociales, los requisitos éticos y el entorno competitivo.
Un nuevo e inusual método de jailbreak , el arte de sortear las limitaciones impuestas a la inteligencia artificial, ha llegado a nuestra redacción. Fue desarrollado por el investigador de seguridad...
El otro día, en LinkedIn, me encontré conversando con alguien muy interesado en el tema de la inteligencia artificial aplicada al derecho. No fue una de esas conversaciones de bar con palabras de mo...
En su última actualización, el gigante tecnológico corrigió 175 vulnerabilidades que afectaban a sus productos principales y sistemas subyacentes, incluyendo dos vulnerabilidades de día cero expl...
Ivanti ha publicado 13 vulnerabilidades en su software Endpoint Manager (EPM) , incluidas dos fallas de alta gravedad que podrían permitir la ejecución remota de código y la escalada de privilegios...
Los analistas de Sophos descubrieron una compleja operación de malware realizada por expertos en seguridad que utiliza el popular servicio de mensajería WhatsApp para propagar troyanos bancarios, ap...