Sumar
OpenAI a anunțat aseară lansarea a două modele de limbaj open-weight, gpt-oss-120B și gpt-oss-20B, disponibile sub licența Apache 2.0. Această inițiativă marchează o schimbare pentru companie, care nu a mai oferit un LLM open-weight de la GPT-2. Greutățile modelelor sunt accesibile publicului pe Hugging Face.
Modele concepute pentru raționament și eficiență
Cele două modele se bazează pe o arhitectură Mixture-of-Experts (MoE), cu respectiv 117 miliarde și 21 miliarde de parametri în total, dar activând doar o fracțiune (5,1B pentru 120B, 3,6B pentru 20B) la fiecare token. Ambele suportă o lungime extinsă a contextului de 128.000 de tokeni.
OpenAI revendică performanțe competitive pe sarcinile de raționament. GPT-OSS-120B ar atinge rezultate apropiate de o4-mini pe benchmark-urile clasice (MMLU, HLE, TauBench...), în timp ce poate fi executat pe un singur GPU de 80 Go. Modelul 20B, mai ușor, este anunțat ca funcționând cu 16 Go de memorie, ceea ce îl face potențial utilizabil local sau pe dispozitive încorporate.
Compatibilitate și cazuri de utilizare
Aceste modele sunt compatibile cu API-ul Responses al OpenAI și integrează nativ suportul pentru Chain-of-Thought (CoT), apeluri de funcții, ieșiri structurate și ajustarea efortului de raționament în funcție de sarcină.
OpenAI vizează utilizări în fluxurile de lucru agenționale, dezvoltarea de asistenți inteligenți, cercetare sau chiar implementări locale din motive de securitate sau suveranitate a datelor. Parteneri precum AI Sweden, Orange și Snowflake au fost implicați înainte de lansare pentru a explora cazuri concrete de integrare.
Securitate și evaluare a riscurilor
OpenAI a explicat mult timp pivotarea către modele închise din motive de securitate. Securitatea a fost, așadar, în centrul preocupărilor companiei și a fost la originea mai multor amânări ale acestei livrări de modele Open Weight mult așteptate. OpenAI afirmă acum că a integrat mecanisme avansate de filtrare și post-formare pentru a reduce riscurile legate de disponibilitatea publică. O evaluare de către experți externi a fost, de asemenea, efectuată pe versiuni deliberat fine-tunate în mod malițios (securitate cibernetică, biologie), în cadrul Preparedness Framework al OpenAI.
Potrivit companiei, chiar și în aceste scenarii extreme, modelele nu ar atinge niveluri de capacități îngrijorătoare. Un challenge de red teaming în valoare de 500.000 $ a fost, de asemenea, lansat pe Kaggle pentru a încuraja detectarea colaborativă a vulnerabilităților.
Un retur controlat la open source?
Această lansare ridică mai multe întrebări. Pe de o parte, demonstrează o dorință de a reechilibra oferta între modele proprietare puternice și alternative open source. Pe de altă parte, permite OpenAI să își păstreze un avans tehnic, stabilind în același timp noi standarde de securitate pentru open-weight.
Publicarea greutăților sub licență permisivă, uneltele puse la dispoziție (inferințe optimizate, harmony renderer, suport PyTorch și Metal...), precum și parteneriatele cu Azure, Hugging Face sau Vercel vizează să faciliteze adoptarea într-un ecosistem din ce în ce mai fragmentat.
Rămâne de văzut în ce măsură aceste modele vor fi adoptate de comunitate, în special în fața alternativelor precum Mistral, LLaMA, Mixtral sau Yi, și dacă deschiderea lor efectivă (în special posibilitatea de fine-tuning liber) va fi suficientă pentru a răspunde așteptărilor cercetătorilor și dezvoltatorilor.
Descoperiți fișele modelelor pe Hugging Face:
https://huggingface.co/openai/gpt-oss-20b
https://huggingface.co/openai/gpt-oss-120b
Cet article publirédactionnel est publié dans le cadre d'une collaboration commerciale