
Redazione RHC : 7 agosto 2025 08:20
Esta semana, OpenAI presentó un esperado modelo de lenguaje abierto llamado gpt-oss. Su principal atractivo es la capacidad de ejecutarse localmente en el ordenador, incluyendo Macs con procesadores Apple Silicon. Así funciona y qué esperar.
Probablemente, esto fue una decisión planificada tras el lanzamiento de DeepSeek R1, que generó mucho revuelo en el mundo de la IA, algo que OpenAI no pudo ignorar.
El modelo está disponible en dos versiones: gpt-oss-20b y gpt-oss-120b. La primera versión es un modelo «medio» que puede ejecutarse en Macs de gama alta con suficientes recursos. La segunda es un modelo «pesado» que requiere hardware mucho más potente. Se espera que la versión más pequeña presente más alucinaciones, es decir, que invente hechos, debido a su menor conjunto de datos de entrenamiento. Sin embargo, se ejecuta más rápido y también puede ejecutarse en ordenadores domésticos.
Incluso en su versión simplificada, gpt-oss es una herramienta interesante para cualquiera que quiera probar a ejecutar un modelo de lenguaje extenso directamente en su portátil. Sin embargo, es importante entender que, a diferencia del conocido ChatGPT, este modelo funciona sin conexión a internet y, por defecto, carece de muchas de las funciones de los chatbots avanzados. Por ejemplo, no comprueba las respuestas mediante motores de búsqueda, lo que aumenta significativamente el riesgo de errores.
OpenAI recomienda un mínimo de 16 GB de RAM para ejecutar gpt-oss-20b, pero en realidad es un mínimo, útil solo para ver cómo funciona. No es de extrañar que Apple haya dejado de vender recientemente Macs con 8 GB de RAM: la IA se está convirtiendo cada vez más en una tarea cotidiana en los ordenadores.
Empezar es sencillo. Primero, instala la aplicación Ollama, que te permite controlar el modelo. Simplemente escribe lo siguiente:
ollama pull gpt-oss:20b ollama run gpt-oss:20b
La plantilla ocupará unos 15 GB de espacio en disco. Una vez descargada, se puede seleccionar en la interfaz de Ollama. Si lo desea, puede activar el «Modo Avión» en la configuración para garantizar un funcionamiento completamente local: no requiere conexión a Internet ni registro.
Ahora introduzca una consulta y vea el resultado. Pero recuerde que el modelo utiliza todos los recursos disponibles y su Mac puede ralentizarse considerablemente. En una MacBook Air con chip M4 y 16 GB de memoria, por ejemplo, la respuesta a «hola» tardó más de cinco minutos. La consulta «quién fue el decimotercer presidente de los Estados Unidos» tardó unos 43 minutos. Por lo tanto, si pretende usar el modelo seriamente, 16 GB no son suficientes.
Redazione
A partir del martes 12 de noviembre de 2025, entrarán en vigor nuevas disposiciones de la Autoridad Reguladora de las Comunicaciones Italiana (AGCOM), que exigirán un sistema de verificación de eda...

AzureHound, que forma parte de la suite BloodHound , nació como una herramienta de código abierto para ayudar a los equipos de seguridad y a los equipos rojos a identificar vulnerabilidades y rutas ...

La puntualidad es clave en ciberseguridad. Red Hot Cyber lanzó recientemente un servicio completamente gratuito que permite a los profesionales de TI, analistas de seguridad y entusiastas monitorear ...

Jen-Hsun Huang soltó una bomba: Nvidia habría invertido mil millones de dólares en Nokia. Sí, Nokia es la compañía que popularizó los teléfonos Symbian hace 20 años. En su discurso, Jensen Hu...

El equipo de programación ruso responsable del malware Medusa ha sido arrestado por funcionarios del Ministerio del Interior ruso, con el apoyo de la policía de la región de Astracán. Según los i...