OpenAI powraca do otwartości z dwoma modelami open-weight: GPT-OSS-120B i GPT-OSS-20B

OpenAI powraca do otwartości z dwoma modelami open-weight: GPT-OSS-120B i GPT-OSS-20B

Publicité
W skrócie : OpenAI wypuściło dwa nowe modele językowe open-weight, gpt-oss-120B i gpt-oss-20B, wspierające wysoką wydajność w zadaniach rozumowania i kompatybilne z różnymi aplikacjami, w tym asystentami inteligentnymi. Pomimo wcześniejszych obaw dotyczących bezpieczeństwa, modele te zawierają zaawansowane mechanizmy filtrowania, aby zminimalizować ryzyko związane z ich publicznym użyciem.

OpenAI ogłosiło wczoraj wieczorem wydanie dwóch modeli językowych open-weight, gpt-oss-120B i gpt-oss-20B, dostępnych na licencji Apache 2.0. Ten krok oznacza zwrot dla firmy, która nie oferowała LLM open-weight od czasu GPT-2. Wagi modeli są publicznie dostępne na Hugging Face.

Modele zaprojektowane do rozumowania i wydajności

Oba modele opierają się na architekturze Mixture-of-Experts (MoE), z odpowiednio 117 miliardami i 21 miliardami parametrów, ale aktywują tylko część (5,1B dla 120B, 3,6B dla 20B) dla każdego tokena. Oba obsługują rozszerzoną długość kontekstu do 128 000 tokenów.

OpenAI twierdzi, że modele oferują konkurencyjne wyniki w zadaniach rozumowania. GPT-OSS-120B osiąga wyniki zbliżone do o4-mini w standardowych testach (MMLU, HLE, TauBench...), jednocześnie działając na jednym GPU o pojemności 80 GB. Model 20B, lżejszy, ogłaszany jest jako działający z 16 GB pamięci, co czyni go potencjalnie użytecznym lokalnie lub na urządzeniach wbudowanych.

GPT-OSS jest dostępny do testów tutaj

Zgodność i przypadki użycia

Te modele są kompatybilne z API Responses OpenAI oraz natywnie obsługują Chain-of-Thought (CoT), wywoływanie funkcji, strukturalne wyjścia i dostosowanie wysiłku rozumowania w zależności od zadania.

OpenAI celuje w zastosowania w workflow agentycznych, rozwój inteligentnych asystentów, badania oraz wdrażanie lokalne z powodów bezpieczeństwa lub suwerenności danych. Partnerzy tacy jak AI Sweden, Orange i Snowflake byli zaangażowani przed premierą w celu eksploracji konkretnych przypadków integracji.

Bezpieczeństwo i ocena ryzyka

OpenAI długo tłumaczyło swoje przejście na modele zamknięte kwestiami bezpieczeństwa. Bezpieczeństwo było więc w centrum rozważań firmy i było przyczyną kilku opóźnień w dostarczeniu tych wyczekiwanych modeli Open Weight. OpenAI twierdzi, że zaimplementowało zaawansowane mechanizmy filtrowania i post-uczenia w celu zmniejszenia ryzyka związanego z publicznym udostępnieniem. Przeprowadzono ocenę przez zewnętrznych ekspertów na celowo złośliwie dostrojonych wersjach (cyberbezpieczeństwo, biologia), w ramach Preparedness Framework OpenAI.

Według firmy, nawet w tych ekstremalnych scenariuszach modele nie osiągnęłyby poziomów zdolności niepokojących. Dodatkowo, na Kaggle ogłoszono wyzwanie red teaming z nagrodą 500 000 $ w celu promowania współpracy w wykrywaniu luk w zabezpieczeniach.

Kontrolowany powrót do open source?

To wydanie rodzi wiele pytań. Z jednej strony świadczy o chęci zrównoważenia oferty między potężnymi modelami proprietarnymi a alternatywami open source. Z drugiej strony pozwala OpenAI zachować techniczną przewagę, jednocześnie ustalając nowe standardy bezpieczeństwa dla open-weight.

Publikacja wag na licencji pozwalającej na wykorzystanie, narzędzia udostępnione (optymalizowane wnioskowania, harmony renderer, wsparcie dla PyTorch i Metal...) oraz partnerstwa z Azure, Hugging Face czy Vercel mają na celu ułatwienie adopcji w coraz bardziej zróżnicowanym ekosystemie.

Pozostaje zobaczyć, w jakim stopniu te modele zostaną przyjęte przez społeczność, zwłaszcza w obliczu alternatyw jak Mistral, LLaMA, Mixtral czy Yi, i czy ich faktyczna otwartość (w szczególności możliwość swobodnego tune-up) wystarczy, aby sprostać oczekiwaniom badaczy i deweloperów.

 

Poznaj modele na Hugging Face:

https://huggingface.co/openai/gpt-oss-20b

https://huggingface.co/openai/gpt-oss-120b

 

 

Cet article publirédactionnel est publié dans le cadre d'une collaboration commerciale