Índice
OpenAI anunció anoche el lanzamiento de dos modelos de lenguaje de peso abierto, gpt-oss-120B y gpt-oss-20B, disponibles bajo la licencia Apache 2.0. Este enfoque marca un giro para la empresa, que no había ofrecido un LLM de peso abierto desde GPT-2. Los pesos de los modelos están disponibles públicamente en Hugging Face.
Modelos diseñados para el razonamiento y la eficiencia
Los dos modelos se basan en una arquitectura Mixture-of-Experts (MoE), con 117 mil millones y 21 mil millones de parámetros respectivamente en total, pero activando solo una fracción (5,1B para el 120B, 3,6B para el 20B) en cada token. Ambos soportan una longitud de contexto extendida a 128,000 tokens.
OpenAI afirma tener un rendimiento competitivo en tareas de razonamiento. GPT-OSS-120B alcanzaría resultados cercanos a o4-mini en los benchmarks clásicos (MMLU, HLE, TauBench…), mientras se ejecuta en un solo GPU de 80 GB. El modelo 20B, más ligero, se anuncia como funcional con 16 GB de memoria, lo que lo hace potencialmente utilizable de forma local o en dispositivos integrados.
Compatibilidad y casos de uso
Estos modelos son compatibles con la API Responses de OpenAI e integran de forma nativa el soporte para Chain-of-Thought (CoT), llamadas de funciones, salidas estructuradas y el ajuste del esfuerzo de razonamiento según la tarea.
OpenAI apunta a usos en flujos de trabajo agénticos, desarrollo de asistentes inteligentes, investigación, o implementación local por razones de seguridad o soberanía de datos. Socios como AI Sweden, Orange y Snowflake participaron antes del lanzamiento para explorar casos concretos de integración.
Seguridad y evaluación de riesgos
OpenAI ha explicado durante mucho tiempo su cambio hacia modelos cerrados por cuestiones de seguridad. La seguridad ha sido, por lo tanto, el núcleo de las consideraciones de la empresa y ha sido la causa de varios retrasos en la entrega de estos modelos de peso abierto tan esperados. OpenAI afirma hoy haber integrado mecanismos avanzados de filtrado y post-entrenamiento para reducir los riesgos asociados con la disponibilidad pública. Una evaluación por expertos externos se llevó a cabo sobre versiones deliberadamente afinadas de forma maliciosa (ciberseguridad, biología), en el marco del Preparedness Framework de OpenAI.
Según la empresa, incluso en estos escenarios extremos, los modelos no alcanzarían niveles de capacidades preocupantes. Un desafío de red teaming dotado de 500,000 $ se ha lanzado en Kaggle para fomentar la detección colaborativa de vulnerabilidades.
¿Un regreso controlado al código abierto?
Este lanzamiento plantea varias preguntas. Por un lado, demuestra una voluntad de reequilibrar la oferta entre modelos propietarios potentes y alternativas de código abierto. Por otro lado, permite a OpenAI mantener una ventaja técnica mientras regula los usos, estableciendo nuevos estándares de seguridad para el peso abierto.
La publicación de los pesos bajo una licencia permisiva, las herramientas disponibles (inferencias optimizadas, harmony renderer, soporte PyTorch y Metal…), así como las asociaciones con Azure, Hugging Face o Vercel están destinadas a facilitar la adopción en un ecosistema cada vez más fragmentado.
Queda por ver en qué medida estos modelos serán adoptados por la comunidad, especialmente frente a alternativas como Mistral, LLaMA, Mixtral o Yi, y si su apertura efectiva (especialmente la posibilidad de ajuste fino libre) será suficiente para satisfacer las expectativas de investigadores y desarrolladores.
Descubra las fichas de modelos en Hugging Face:
https://huggingface.co/openai/gpt-oss-20b
https://huggingface.co/openai/gpt-oss-120b
Cet article publirédactionnel est publié dans le cadre d'une collaboration commerciale