Redazione RHC : 7 agosto 2025 08:20
Esta semana, OpenAI presentó un esperado modelo de lenguaje abierto llamado gpt-oss. Su principal atractivo es la capacidad de ejecutarse localmente en el ordenador, incluyendo Macs con procesadores Apple Silicon. Así funciona y qué esperar.
Probablemente, esto fue una decisión planificada tras el lanzamiento de DeepSeek R1, que generó mucho revuelo en el mundo de la IA, algo que OpenAI no pudo ignorar.
El modelo está disponible en dos versiones: gpt-oss-20b y gpt-oss-120b. La primera versión es un modelo «medio» que puede ejecutarse en Macs de gama alta con suficientes recursos. La segunda es un modelo «pesado» que requiere hardware mucho más potente. Se espera que la versión más pequeña presente más alucinaciones, es decir, que invente hechos, debido a su menor conjunto de datos de entrenamiento. Sin embargo, se ejecuta más rápido y también puede ejecutarse en ordenadores domésticos.
Incluso en su versión simplificada, gpt-oss es una herramienta interesante para cualquiera que quiera probar a ejecutar un modelo de lenguaje extenso directamente en su portátil. Sin embargo, es importante entender que, a diferencia del conocido ChatGPT, este modelo funciona sin conexión a internet y, por defecto, carece de muchas de las funciones de los chatbots avanzados. Por ejemplo, no comprueba las respuestas mediante motores de búsqueda, lo que aumenta significativamente el riesgo de errores.
OpenAI recomienda un mínimo de 16 GB de RAM para ejecutar gpt-oss-20b, pero en realidad es un mínimo, útil solo para ver cómo funciona. No es de extrañar que Apple haya dejado de vender recientemente Macs con 8 GB de RAM: la IA se está convirtiendo cada vez más en una tarea cotidiana en los ordenadores.
Empezar es sencillo. Primero, instala la aplicación Ollama, que te permite controlar el modelo. Simplemente escribe lo siguiente:
ollama pull gpt-oss:20b ollama run gpt-oss:20b
La plantilla ocupará unos 15 GB de espacio en disco. Una vez descargada, se puede seleccionar en la interfaz de Ollama. Si lo desea, puede activar el «Modo Avión» en la configuración para garantizar un funcionamiento completamente local: no requiere conexión a Internet ni registro.
Ahora introduzca una consulta y vea el resultado. Pero recuerde que el modelo utiliza todos los recursos disponibles y su Mac puede ralentizarse considerablemente. En una MacBook Air con chip M4 y 16 GB de memoria, por ejemplo, la respuesta a «hola» tardó más de cinco minutos. La consulta «quién fue el decimotercer presidente de los Estados Unidos» tardó unos 43 minutos. Por lo tanto, si pretende usar el modelo seriamente, 16 GB no son suficientes.
Se ha descubierto una falla de seguridad crítica en implementaciones híbridas de Microsoft Exchange Server. Esta vulnerabilidad (CWE-287) permite a los atacantes con acceso administrativo lo...
Se han descubierto vulnerabilidades críticas en el servidor de inferencia Triton de NVIDIA, que amenazan la seguridad de la infraestructura de IA en Windows y Linux. Esta solución de có...
Una publicación en un foro en línea del 26 de julio de 2025 nos llamó la atención: un usuario llamado «Bucad» anunciaba la venta de un exploit de día cero para RCE d...
Un nuevo estudio de Microsoft ofrece una perspectiva sorprendente (y perturbadora) sobre cómo la IA generativa está transformando la fuerza laboral global. Contrariamente a la creencia popul...
La Iniciativa de Día Cero (ZDI) de Trend Micro ha anunciado una recompensa digna de un corredor de día cero. Se ofrece una recompensa sin precedentes de 1.000.000 de dólares a quien des...