
Redazione RHC : 15 octubre 2025 14:33
OpenAI está preparando un cambio importante en las reglas de ChatGPT: a partir de diciembre, los usuarios con edad verificada podrán interactuar con contenido para adultos, incluida la erótica.
El director ejecutivo de la compañía, Sam Altman, anunció el cambio, enfatizando su compromiso con el respeto a los usuarios adultos. Este cambio formará parte del sistema de restricción de edad que OpenAI pretende implementar por completo para finales de año.
La compañía había anunciado previamente su intención de permitir el desarrollo de apps ChatGPT con contenido para adultos, sujeto a todos los controles necesarios y verificación de edad. Ahora queda claro que no se trata solo de desarrollos externos: la propia plataforma comenzará a admitir diálogos explícitos con inteligencia artificial, sujetos a las condiciones de acceso adecuadas.
Esta medida parece una continuación lógica de la competencia en el segmento de dispositivos de IA personalizados. Por ejemplo, la startup xAI de Elon Musk ya ha lanzado compañeros virtuales que guiñan el ojo en forma de modelos de anime en 3D, disponibles en la app Grok. Sin embargo, a diferencia de las soluciones de xAI, actualmente más adecuadas para videojuegos, OpenAI prioriza la controlabilidad y la seguridad psicológica.
Otros anuncios incluyen la reintroducción de GPT-4o como opción en ChatGPT, tras las críticas al nuevo motor GPT-5 predeterminado por su falta de humanidad. OpenAI reconoció que la implementación excesivamente cautelosa de las restricciones de salud mental hizo que su IA fuera menos útil y agradable para la mayoría de los usuarios. Esto impulsó a la compañía a crear herramientas para identificar a los usuarios con dificultades y relajar gradualmente los filtros cuando fuera seguro hacerlo.
Para desarrollar una estrategia a largo plazo para situaciones de comunicación sensibles, OpenAI creó un comité asesor interno sobre bienestar, compuesto por ocho expertos que estudian el impacto de la tecnología digital en la salud mental. Sin embargo, como señala Ars Technica, ni un solo experto en prevención del suicidio formó parte del comité, a pesar de los llamamientos públicos de organizaciones relevantes para fortalecer la protección de los usuarios vulnerables.
Todos estos pasos señalan el compromiso de OpenAI de adoptar una actitud más flexible y diversa en el uso de sus herramientas de IA , al tiempo que demuestran una voluntad de adaptarse a las demandas sociales, los requisitos éticos y el entorno competitivo.
Redazione
En esta apasionante historia, viajaremos a 1959 al Club de Ferrocarriles en Miniatura del MIT Tech y conoceremos a Steve Russell. Steve fue uno de los primeros hackers y escribió uno de los primeros ...

El significado de » hacker » tiene profundas raíces. Proviene del inglés «to hack», que significa picar, cortar, golpear o mutilar. Es una imagen poderosa: la de un campesino rompiendo terrones ...

Desde las vulnerabilidades de WEP hasta los avances de WPA3 , la seguridad de las redes Wi-Fi ha evolucionado enormemente. Hoy en día, las redes autoprotegidas representan la nueva frontera: sistemas...

Un hallazgo excepcional de los primeros tiempos de Unix podría llevar a los investigadores a los mismísimos orígenes del sistema operativo. En la Universidad de Utah se descubrió una cinta magnét...

Imagina una ciudad futurista dividida en dos: por un lado, relucientes torres de innovación; por el otro, el caos y las sombras de la pérdida de control. Esta no es una visión distópica, sino el p...