Así podemos instalar y ejecutar el modelo ‘gpt-oss-20b’ de OpenAI en un Mac

,
Open AI modelo local gps 20

Con la reciente presentación del modelo gpt-oss-20b por parte de OpenAI, por fin podremos probar uno de sus modelos de lenguaje, de peso medio, directamente en nuestro propio Mac, sin necesidad de depender de la nube ni de conexiones externas. A diferencia de ChatGPT (accesible desde un navegador o mediante suscripción a ChatGPT Plus), que funciona a través de la web y requiere conexión, este modelo puede ejecutarse totalmente en local. Veamos cómo.

Qué es gpt-oss-20b y qué necesitamos para tenerlo

OpenAI ha presentado dos variantes de este modelo: gpt-oss-20b y gpt-oss-120b. La diferencia entre estos modelos está sobre todo en el tamaño de sus datos y la precisión con la que responden.

El primero, el modelo más pequeño, es el que podemos ejecutar en local, en casa. Y está pensado para ordenadores con cierta potencia como los Mac con chip Apple Silicon.

Es un modelo rápido y ligero, pero también puede "inventarse" ciertas cosas. Recordemos que un modelo local como este no tiene acceso a resultados web, ni a herramientas adicionales. Funciona solo con los datos que ya ha aprendido. Sea como sea, es un buen punto de partida para experimentar, aprender o simplemente ver cómo funcionan estas inteligencias cuando no dependen de internet.

En cuanto al espacio en disco, el modelo gpt-oss-20b necesita alrededor de 15 GB libres. Y, aunque OpenAI dice que 16 GB de RAM son suficientes, lo cierto es que es lo mínimo. Cuanta más memoria tengamos, más fluido será su uso. En un MacBook Air M4 con 16 GB, por ejemplo, pedirle que diga "hola" puede tardar más de cinco minutos. Y cosas un poco más complejas… bastante más.

Cómo se instala y ejecuta el modelo en el Mac

La instalación del modelo gpt-oss-20b es facilísima.

Lo primero que tenemos que hacer es descargar e instalar "Ollama", una app gratuita que sirve como puerta de entrada para los modelos que queramos ejecutar localmente. Podemos encontrarla en ollama.com/download y descargar directamente la versión para Mac.

Una vez instalada, abrimos el Terminal y escribimos este comando:

ollama pull gpt-oss:20b

Este comando descargará el modelo gpt-oss-20b en nuestro equipo. Una vez lo tengamos, podemos iniciarlo con:

ollama run gpt-oss:20b

Y ya está. Si abrimos la app de Ollama, podremos seleccionar el modelo desde su panel y empezar a interactuar con él introduciendo cualquier prompt.

Desde los ajustes de la app también podemos activar el "modo avión", una función que impide cualquier tipo de conexión externa para asegurarnos de que todo lo que hace el modelo ocurre dentro del propio Mac. Sin nube, sin cuentas, sin registros.

¿Y cuando queramos eliminarlo? En Terminal, con este sencillo comando, lo podemos hacer:

ollama rm gpt-oss:20b

El modelo gpt-oss-20b es una herramienta potente y sorprendente. Pero al funcional en local, necesita usar todos los recursos que tiene a su alcance, lo que puede hacer que el Mac vaya más lento mientras el modelo está pensando. ¿Es una solución para tareas rápidas seguras? Más bien no. Pero sí una buena oportunidad para experimentar con las IA de forma autónoma y privada.

En Hanaringo | Si no has actualizado ya a iOS 18.6, deberías hacerlo cuanto antes