OpenAI renoue avec l'ouverture avec deux modèles open-weight : GPT-OSS-120B et GPT-OSS-20B

OpenAI renoue avec l'ouverture avec deux modèles open-weight : GPT-OSS-120B et GPT-OSS-20B

Publicité
En bref : OpenAI a lancé deux nouveaux modèles de langage open-weight, gpt-oss-120B et gpt-oss-20B, soutenant une haute performance sur les tâches de raisonnement et compatibles avec diverses applications, dont les assistants intelligents. Malgré des préoccupations de sécurité précédentes, ces modèles intègrent des mécanismes de filtrage avancés pour minimiser les risques liés à leur utilisation publique.

OpenAI a annoncé hier soir la sortie de deux modèles de langage open-weight, gpt-oss-120B et gpt-oss-20B, disponibles sous licence Apache 2.0. Cette démarche marque un tournant pour l’entreprise, qui n’avait plus proposé de LLM open-weight depuis GPT-2. Les poids des modèles sont accessibles publiquement sur Hugging Face.

Des modèles conçus pour le raisonnement et l’efficacité

Les deux modèles reposent sur une architecture Mixture-of-Experts (MoE), avec respectivement 117 milliards et 21 milliards de paramètres au total, mais n’activant qu’une fraction (5,1B pour le 120B, 3,6B pour le 20B) à chaque token. Tous deux supportent une longueur de contexte étendue à 128 000 tokens.

OpenAI revendique des performances compétitives sur les tâches de raisonnement. GPT-OSS-120B atteindrait des résultats proches de o4-mini sur les benchmarks classiques (MMLU, HLE, TauBench…), tout en étant exécutable sur un seul GPU de 80 Go. Le modèle 20B, plus léger, est annoncé comme fonctionnant avec 16 Go de mémoire, ce qui le rend potentiellement utilisable en local ou sur des appareils embarqués.

GPT-OSS est testable ici

Compatibilité et cas d’usage

Ces modèles sont compatibles avec l’API Responses d’OpenAI, et intègrent nativement la prise en charge du Chain-of-Thought (CoT), des appels de fonctions, des sorties structurées et de l’ajustement de l’effort de raisonnement selon la tâche.

OpenAI cible des usages dans les workflows agentiques, le développement d’assistants intelligents, la recherche, ou encore le déploiement en local pour des raisons de sécurité ou de souveraineté des données. Des partenaires comme AI Sweden, Orange et Snowflake ont été impliqués en amont du lancement pour explorer des cas concrets d’intégration.

Sécurité et évaluation des risques

OpenAI a longtemps expliqué son pivot vers des modèles fermés par des enjeux sécuritaires. La sécurité a donc été au coeur des considérations de la société, et a été à l'origine de plusieurs reports de cette livraison de modèles Open Weight tant attendus. OpenAI affirme aujourd'hui avoir intégré des mécanismes avancés de filtrage et de post-formation pour réduire les risques liés à la mise à disposition publique. Une évaluation par des experts externes a notamment été menée sur des versions délibérément fine-tunées de manière malveillante (cybersécurité, biologie), dans le cadre du Preparedness Framework d’OpenAI.

Selon l’entreprise, même dans ces scénarios extrêmes, les modèles n’atteindraient pas des niveaux de capacités préoccupants. Un challenge de red teaming doté de 500 000 $ a par ailleurs été lancé sur Kaggle pour encourager la détection collaborative de vulnérabilités.

Un retour maîtrisé à l’open source ?

Ce lancement soulève plusieurs questions. D’une part, il témoigne d’une volonté de rééquilibrer l’offre entre modèles propriétaires puissants et alternatives open source. D’autre part, il permet à OpenAI de garder une longueur d’avance technique tout en cadrant les usages, en fixant de nouveaux standards de sécurité pour l’open-weight.

La publication des poids sous licence permissive, l’outillage mis à disposition (inférences optimisées, harmony renderer, support PyTorch et Metal…), ainsi que les partenariats avec Azure, Hugging Face ou Vercel visent à faciliter l’adoption dans un écosystème de plus en plus fragmenté.

Reste à voir dans quelle mesure ces modèles seront repris par la communauté, notamment face aux alternatives comme Mistral, LLaMA, Mixtral ou Yi, et si leur ouverture effective (notamment la possibilité de fine-tuning libre) suffira à répondre aux attentes des chercheurs et développeurs.

 

Découvrez les fiches modèles sur Hugging Face :

https://huggingface.co/openai/gpt-oss-20b

https://huggingface.co/openai/gpt-oss-120b

 

 

Cet article publirédactionnel est publié dans le cadre d'une collaboration commerciale