Todo sobre GPT-OSS: el modelo de IA abierto y local de OpenAI

Última actualización: agosto 7, 2025
  • OpenAI ha presentado GPT-OSS, sus modelos de lenguaje de pesos abiertos accesibles y gratuitos.
  • Existen dos variantes: gpt-oss-120b para hardware profesional y gpt-oss-20b para equipos de consumo.
  • Los modelos se pueden ejecutar localmente, ofrecen razonamiento configurable y están centrados en la seguridad.
  • Disponibles bajo licencia Apache 2.0, facilitan la adopción de IA avanzada por empresas y desarrolladores.

modelo GPT-OSS OpenAI IA local

OpenAI ha dado un giro relevante en su enfoque de inteligencia artificial con el lanzamiento de los modelos GPT-OSS, abriendo así el acceso a sistemas de IA avanzados que ahora pueden descargarse y ejecutarse directamente en el ordenador. Esta novedad supone un avance tanto en términos de democratización de la IA como de privacidad, ya que permite operar sin depender de servicios en la nube o conexiones externas. El movimiento llega tras la presión de la comunidad y la proliferación de alternativas abiertas como DeepSeek o Llama, en un contexto donde cada vez más usuarios y empresas buscan tener el control sobre sus datos y el desarrollo de sus propias herramientas.

El modelo GPT-OSS está disponible en dos versiones adaptadas a diferentes necesidades: la variante gpt-oss-120b, más potente y dirigida a entornos profesionales que cuentan con GPUs de gama alta, y la versión gpt-oss-20b, pensada para ser ejecutada en ordenadores de consumo con una capacidad de memoria razonable. Ambas alternativas han sido liberadas bajo licencia Apache 2.0, lo que permite su uso, modificación y explotación comercial sin costes extra, y ya pueden descargarse desde plataformas reconocidas como Hugging Face, Azure o AWS.

Dos tamaños, dos públicos: gpt-oss-120b y gpt-oss-20b

versiones gpt-oss openAI

La propuesta de OpenAI con GPT-OSS incluye dos modelos claramente diferenciados:

  • gpt-oss-120b: orientado a usuarios profesionales y empresas que dispongan de una GPU con al menos 60-80 GB de memoria, capaz de alcanzar un rendimiento similar al modelo o4-mini de la propia compañía.
  • gpt-oss-20b: diseñado para ordenadores convencionales que cuenten con 16 GB de memoria (preferiblemente gráfica, aunque también puede funcionar con memoria RAM suficiente), aproximándose a la capacidad de o3-mini.
Te puede interesar:  Meta prepara el lanzamiento de su smartwatch integrando tecnología de realidad extendida

Ambos modelos adoptan una arquitectura Transformer optimizada con mixture-of-experts (MoE), lo que ayuda a manejar flujos de información complejos con eficiencia. Se puede gestionar contextos extensos (hasta 128.000 tokens) y ajustar en tiempo real el nivel de razonamiento, balanceando entre rapidez de respuesta y profundidad analítica, adaptándose así a tareas desde lo rutinario hasta el análisis avanzado.

Características técnicas y rendimiento en pruebas

benchmarks GPT-OSS

En lo relativo a la carga de trabajo y rendimiento académico, GPT-OSS ha sido puesto a prueba en numerosas evaluaciones reconocidas: desde tareas de programación y codificación competitiva (Codeforces), hasta pruebas de matemáticas (AIME), evaluación general (MMLU) y benchmarks médicos (HealthBench). El modelo más grande, gpt-oss-120b, iguala o supera los resultados de soluciones propietarias de OpenAI y deja atrás a otros modelos abiertos como DeepSeek R1 en varios indicadores clave. La versión ligera también demuestra una notable cercanía a estos estándares pese a su menor tamaño.

Ambos modelos son capaces de generar cadenas de razonamiento completas (chain-of-thought, CoT), lo que permite auditar los pasos seguidos para cada respuesta y mejora la transparencia. Además, pueden llamar funciones externas, operar agentes y realizar tareas automatizadas, haciéndolos versátiles en flujos de trabajo dinámicos y en integraciones con herramientas empresariales.

La arquitectura incorpora además mejoras como Rotary Positional Embeddings (RoPE) y atención multi-consulta agrupada, optimizando el consumo de memoria y la latencia, lo que resulta especialmente relevante para quienes pretenden utilizar estos modelos en equipos sin hardware de última generación. Esto se traduce en una experiencia más fluida, incluso cuando los recursos técnicos son limitados.

Seguridad y transparencia

seguridad GPT-OSS OpenAI

La seguridad ha sido una prioridad en todo el proceso de desarrollo de GPT-OSS. Según OpenAI, estos modelos han sido sometidos a pruebas adicionales de validación, incluyendo revisiones externas y la publicación de informes técnicos y prompts utilizados, todo orientado a minimizar riesgos en ciberseguridad o usos maliciosos. El preentrenamiento se ha realizado filtrando información sensible relacionada con amenazas químicas, biológicas o tecnológicas, y el ajuste posterior ha reforzado la resistencia a inyecciones de prompt y manipulación indebida.

Te puede interesar:  Lenovo dispara el beneficio y sella un trimestre de récord con el tirón de la IA

Para evaluar posibles vulnerabilidades, OpenAI ha lanzado un reto de seguridad abierto a la comunidad, dotado con medio millón de dólares, incentivando a investigadores y desarrolladores a detectar y documentar fallos o comportamientos de riesgo. Este enfoque colaborativo busca ampliar la confianza y robustez de los modelos abiertos, poniendo énfasis en la seguridad y la transparencia para fortalecer tanto la innovación como la adopción empresarial.

Cómo instalar y usar GPT-OSS en local

instalar GPT-OSS

Para quienes deseen probar GPT-OSS en su propio ordenador, existen varias opciones sencillas y gratuitas. Plataformas como Ollama y LM Studio permiten gestionar múltiples modelos de IA, facilitando tanto la descarga como la ejecución local y la personalización del comportamiento.

En Ollama, simplemente seleccionas «gpt-oss:20b» en el desplegable de modelos y escribes un mensaje para iniciar la descarga, que ronda los 12-13 GB, y comenzar a interactuar con la IA de forma similar a ChatGPT, manteniendo los datos en el equipo local. Por su parte, LM Studio ofrece una interfaz avanzada que permite configurar detalles del modelo y trabajar en distintos proyectos de integración.

Mini PC ALPHA-ONE
Artículo relacionado:
Mini PC ALPHA-ONE: Un referente en IA local y hardware abierto RISC-V

Se recomienda cerrar aplicaciones no esenciales y contar con al menos 16 GB de memoria para una experiencia óptima, aunque los sistemas modernos gestionan relativamente bien los recursos, permitiendo ejecutar el modelo en equipos más modestos con ciertas limitaciones. Cuanto mejores sean las especificaciones, menor será la latencia y mayor la fluidez en las respuestas.

El despliegue de GPT-OSS representa una oportunidad para desarrolladores, equipos de I+D y pequeñas empresas, que pueden acceder a capacidades avanzadas de inteligencia artificial sin depender de la nube ni de licencias restrictivas. Además, facilita la integración en tareas como análisis de datos, automatización y generación de código en entornos privados y adaptados a cada necesidad.

Te puede interesar:  Sora de OpenAI llegará a Android: novedades, disponibilidad y acceso

Con modelos tan potentes y flexibles como GPT-OSS, OpenAI marca un cambio en el sector: la inteligencia artificial avanzada se vuelve accesible para cualquier persona o empresa con un equipo adecuado y ganas de experimentar.

estrategias SEO locales
Artículo relacionado:
Cómo destacar en Google con estrategias SEO locales: claves para negocios en España