
Redazione RHC : 9 agosto 2025 08:56
OpenAI ha lanzado su nuevo modelo insignia, y el mensaje es claro: fiabilidad, potencia y un cambio radical en la forma en que interactuamos con la inteligencia artificial. Tras años considerando los modelos de lenguaje como herramientas experimentales, GPT-5 marca la transición definitiva del prototipo a la producción
Una de sus fortalezas es el sistema unificado con «enrutador inteligente»: ya no es necesario elegir manualmente qué modelo usar. GPT-5 analiza la solicitud y decide de forma autónoma si proporciona una respuesta rápida o activa un modo de computación más complejo para problemas complejos. Una única interfaz, potencia bajo demanda.
En cuanto a la fiabilidad, el progreso es notable. OpenAI afirma una reducción de las alucinaciones de entre el 45 % y el 80 % en comparación con los modelos anteriores, gracias a un trabajo de ingeniería específico. Este es un paso crucial para convertir la IA en una herramienta de trabajo práctica, segura y predecible.
El rendimiento en tareas clave confirma el salto de calidad: en programación, GPT-5 alcanza una puntuación del 74,9 % en SWE-bench, lo que lo sitúa entre los mejores en ingeniería de software; en razonamiento científico, muestra un progreso significativo en matemáticas (AIME), ciencias (GPQA) y percepción multimodal; en escritura, demuestra una gestión superior de la estructura, el ritmo y la metáfora, yendo mucho más allá de la simple corrección gramatical.
Finalmente, acceso y costes: GPT-5 ya está disponible en ChatGPT (reemplazando a GPT-4o) y a través de la API en varios formatos (-5, mini, nano) con un contexto de entrada de 256 kB y de salida de 128 kB. Las tarifas, de hasta $10 por millón de tokens de salida y $1,25 por millón de tokens de entrada, son extremadamente competitivas, en línea con modelos como Google Gemini 2.5. Pero el verdadero avance no es solo el poder: es la confianza. La era de los juguetes ha terminado: esta IA está diseñada para funcionar.
OpenAI presentó GPT-5 como un modelo de infraestructura: confiable, potente y diseñado para uso profesional. Ahora, añadamos un aspecto sorprendente: su desarrollo habría requerido una inversión de mil millones de dólares y una infraestructura de hardware sin precedentes, lo que confirma que ya no se trata de un prototipo, sino de una empresa a gran escala.
Se estima que el entrenamiento de GPT-4 costó alrededor de 63 millones de dólares, utilizando 25 000 GPU Nvidia A100 durante 90-100 días. En comparación, las estimaciones para GPT-5 sugieren un coste de entre 1250 y 2500 millones de dólares y una infraestructura de entre 250 000 y 500 000 GPU Nvidia H100 dedicadas. Como alternativa, según otros cálculos basados en estimaciones de mercado (parámetros de 8,8 a 15 billones y duraciones de entrenamiento de alrededor de 150 días), se necesitarían entre 150 000 y 260 000 GPU H100, con un coste de hardware de entre 3700 y 6600 millones de dólares solo para adquirir las tarjetas.
Si bien no se han publicado los detalles oficiales sobre el número de parámetros de GPT-4, algunas fuentes estiman que podría alcanzar los 1,8 billones de parámetros. Por otro lado, se proyecta que GPT-5 tenga entre 8,8 y 15 billones de parámetros, lo que representa unas 5-8 veces más que su predecesor.
La infraestructura necesaria no solo es costosa, sino que También supone un reto logístico: cientos de miles de GPU H100 representan una demanda masiva de energía y espacio físico. Si GPT-4 ya había marcado un punto de inflexión en el uso de recursos, GPT-5 lo eleva a niveles casi industriales, representando así la transición definitiva de la experimentación a la infraestructura de IA.
Desde un punto de vista práctico, GPT-5 promete mucha más potencia y fiabilidad que GPT-4. Sin embargo, el alto coste y los enormes requisitos de hardware cambian el enfoque: ya no estamos en el ámbito de la experimentación, sino en una nueva era en la que la IA es infraestructura: costosa, generalizada y lista para servir a aplicaciones de misión crítica. La era de los juguetes ha terminado: la IA ahora está diseñada para el trabajo.
Redazione
Reuters informó que Trump declaró a la prensa durante una entrevista pregrabada para el programa «60 Minutes» de CBS y a bordo del Air Force One durante el vuelo de regreso: «No vamos a permitir ...

Un informe de FortiGuard correspondiente al primer semestre de 2025 muestra que los atacantes motivados por intereses económicos están evitando cada vez más las vulnerabilidades y el malware sofist...

La primera computadora cuántica atómica de China ha alcanzado un importante hito comercial al registrar sus primeras ventas a clientes nacionales e internacionales, según medios estatales. El Hubei...

El director ejecutivo de NVIDIA, Jen-Hsun Huang, supervisa directamente a 36 empleados en siete áreas clave: estrategia, hardware, software, inteligencia artificial, relaciones públicas, redes y asi...

OpenAI ha presentado Aardvark, un asistente autónomo basado en el modelo GPT-5 , diseñado para encontrar y corregir automáticamente vulnerabilidades en el código de software. Esta herramienta de I...