Samenvatting
OpenAI kondigde gisteravond de release aan van twee open-weight taalmodellen, gpt-oss-120B en gpt-oss-20B, beschikbaar onder de Apache 2.0-licentie. Deze stap markeert een keerpunt voor het bedrijf, dat sinds GPT-2 geen open-weight LLM meer had aangeboden. De modelgewichten zijn openbaar toegankelijk op Hugging Face.
Modellen ontworpen voor redenering en efficiëntie
De twee modellen zijn gebaseerd op een Mixture-of-Experts (MoE) architectuur, met respectievelijk 117 miljard en 21 miljard parameters in totaal, maar activeren slechts een fractie (5,1B voor de 120B, 3,6B voor de 20B) per token. Beide ondersteunen een uitgebreide contextlengte tot 128.000 tokens.
OpenAI claimt competitieve prestaties op redeneringstaken. GPT-OSS-120B zou resultaten behalen die dicht bij o4-mini liggen op klassieke benchmarks (MMLU, HLE, TauBench...), terwijl het uitvoerbaar is op slechts één GPU van 80GB. Het lichtere 20B-model is aangekondigd als werkend met 16GB geheugen, wat het potentieel bruikbaar maakt lokaal of op embedded apparaten.
Compatibiliteit en gebruikscases
Deze modellen zijn compatibel met de OpenAI Responses API en ondersteunen van nature de Chain-of-Thought (CoT), functieoproepen, gestructureerde uitvoer en het aanpassen van de inspanning van redenering afhankelijk van de taak.
OpenAI richt zich op gebruik in agent-gebaseerde workflows, de ontwikkeling van slimme assistenten, onderzoek, of lokale implementatie voor veiligheids- of data-soevereiniteitsredenen. Partners zoals AI Sweden, Orange en Snowflake waren voorafgaand aan de lancering betrokken om concrete integratiecases te verkennen.
Veiligheid en risicobeoordeling
OpenAI heeft zijn verschuiving naar gesloten modellen lange tijd verklaard met veiligheidskwesties. Veiligheid stond daarom centraal in de overwegingen van het bedrijf en was de aanleiding voor verschillende vertragingen van deze langverwachte levering van Open Weight-modellen. OpenAI beweert nu geavanceerde filtering- en post-trainingsmechanismen te hebben geïntegreerd om de risico's van openbare beschikbaarheid te verminderen. Er is een evaluatie uitgevoerd door externe experts op opzettelijk kwaadwillig fijn-afgestelde versies (cybersecurity, biologie) in het kader van het Preparedness Framework van OpenAI.
Volgens het bedrijf zouden de modellen, zelfs in deze extreme scenario's, geen zorgwekkende capaciteitsniveaus bereiken. Een red teaming-uitdaging met $500.000 aan prijzengeld is ook gelanceerd op Kaggle om de gezamenlijke detectie van kwetsbaarheden aan te moedigen.
Een gecontroleerde terugkeer naar open source?
Deze lancering roept verschillende vragen op. Enerzijds getuigt het van een poging om het aanbod te balanceren tussen krachtige propriëtaire modellen en open source-alternatieven. Anderzijds stelt het OpenAI in staat om een technische voorsprong te behouden terwijl het gebruik kadert en nieuwe veiligheidsstandaarden voor open-weight vaststelt.
De publicatie van de gewichten onder een permissieve licentie, de beschikbare tools (geoptimaliseerde inferenties, harmony renderer, ondersteuning voor PyTorch en Metal...), evenals de partnerschappen met Azure, Hugging Face of Vercel zijn bedoeld om de adoptie in een steeds gefragmenteerder ecosysteem te vergemakkelijken.
Het valt nog te bezien in hoeverre deze modellen door de gemeenschap zullen worden overgenomen, vooral tegenover alternatieven zoals Mistral, LLaMA, Mixtral of Yi, en of hun effectieve openheid (met name de mogelijkheid tot vrije fijn-afstemming) voldoende zal zijn om aan de verwachtingen van onderzoekers en ontwikkelaars te voldoen.
Ontdek de modelkaarten op Hugging Face:
https://huggingface.co/openai/gpt-oss-20b
https://huggingface.co/openai/gpt-oss-120b
Cet article publirédactionnel est publié dans le cadre d'une collaboration commerciale