Inhaltsverzeichnis
OpenAI hat gestern Abend die Veröffentlichung von zwei Open-Weight-Sprachmodellen, gpt-oss-120B und gpt-oss-20B, bekannt gegeben, die unter der Apache 2.0-Lizenz verfügbar sind. Dieser Schritt markiert einen Wendepunkt für das Unternehmen, das seit GPT-2 keine Open-Weight-LLMs mehr angeboten hat. Die Gewichte der Modelle sind öffentlich auf Hugging Face zugänglich.
Modelle konzipiert für Argumentation und Effizienz
Die beiden Modelle basieren auf einer Mixture-of-Experts (MoE)-Architektur mit insgesamt 117 Milliarden bzw. 21 Milliarden Parametern, wobei bei jedem Token nur ein Bruchteil (5,1B für das 120B, 3,6B für das 20B) aktiviert wird. Beide unterstützen eine erweiterte Kontextlänge von bis zu 128.000 Tokens.
OpenAI beansprucht wettbewerbsfähige Leistungen bei Argumentationsaufgaben. GPT-OSS-120B soll Ergebnisse erzielen, die o4-mini auf klassischen Benchmarks (MMLU, HLE, TauBench…) nahekommen, während es auf einem einzigen 80-GB-GPU lauffähig ist. Das leichtere 20B-Modell wird als mit 16 GB Speicher funktionierend angekündigt, was es potenziell für den lokalen oder eingebetteten Einsatz nutzbar macht.
GPT-OSS kann hier getestet werden
Kompatibilität und Anwendungsfälle
Diese Modelle sind mit der OpenAI Responses API kompatibel und unterstützen nativ den Chain-of-Thought (CoT), Funktionsaufrufe, strukturierte Ausgaben und die Anpassung des Argumentationsaufwands je nach Aufgabe.
OpenAI zielt auf Anwendungen in agentischen Workflows, der Entwicklung intelligenter Assistenten, der Forschung oder dem lokalen Einsatz ab, um Sicherheits- oder Datensouveränitätsgründe zu adressieren. Partner wie AI Sweden, Orange und Snowflake waren im Vorfeld des Starts beteiligt, um konkrete Integrationsfälle zu erkunden.
Sicherheit und Risikobewertung
OpenAI hat lange seinen Schwenk zu geschlossenen Modellen mit Sicherheitsbedenken erklärt. Sicherheit stand daher im Mittelpunkt der Überlegungen des Unternehmens und war der Grund für mehrere Verzögerungen bei der Veröffentlichung dieser lang erwarteten Open Weight-Modelle. OpenAI behauptet heute, fortschrittliche Filter- und Nachschulungsmechanismen integriert zu haben, um die mit der öffentlichen Bereitstellung verbundenen Risiken zu verringern. Eine Bewertung durch externe Experten wurde insbesondere an absichtlich böswillig feinabgestimmten Versionen (Cybersicherheit, Biologie) im Rahmen des OpenAI Preparedness Frameworks durchgeführt.
Laut dem Unternehmen würden die Modelle selbst in extremen Szenarien keine besorgniserregenden Fähigkeitsniveaus erreichen. Ein Red-Teaming-Herausforderung mit einem Preisgeld von 500.000 $ wurde außerdem auf Kaggle gestartet, um die kollaborative Erkennung von Schwachstellen zu fördern.
Eine kontrollierte Rückkehr zur Open Source?
Diese Veröffentlichung wirft mehrere Fragen auf. Einerseits zeugt sie von dem Bestreben, das Angebot zwischen leistungsstarken proprietären Modellen und Open-Source-Alternativen auszugleichen. Andererseits ermöglicht sie es OpenAI, einen technischen Vorsprung zu behalten und gleichzeitig die Nutzung zu steuern, indem neue Sicherheitsstandards für Open-Weight gesetzt werden.
Die Veröffentlichung der Gewichte unter einer permissiven Lizenz, die bereitgestellten Werkzeuge (optimierte Inferenz, Harmony Renderer, Unterstützung für PyTorch und Metal…), sowie die Partnerschaften mit Azure, Hugging Face oder Vercel zielen darauf ab, die Akzeptanz in einem zunehmend fragmentierten Ökosystem zu erleichtern.
Es bleibt abzuwarten, inwieweit diese Modelle von der Gemeinschaft angenommen werden, insbesondere im Vergleich zu Alternativen wie Mistral, LLaMA, Mixtral oder Yi, und ob ihre tatsächliche Offenheit (insbesondere die Möglichkeit zum freien Fine-Tuning) ausreicht, um die Erwartungen von Forschern und Entwicklern zu erfüllen.
Entdecken Sie die Modellkarten auf Hugging Face:
https://huggingface.co/openai/gpt-oss-20b
https://huggingface.co/openai/gpt-oss-120b
Cet article publirédactionnel est publié dans le cadre d'une collaboration commerciale