OpenAI повертається до відкритості з двома моделями open-weight: GPT-OSS-120B і GPT-OSS-20B

OpenAI повертається до відкритості з двома моделями open-weight: GPT-OSS-120B і GPT-OSS-20B

Publicité
У короткому : OpenAI випустила дві нові мовні моделі open-weight, gpt-oss-120B та gpt-oss-20B, підтримуючи високу продуктивність на завданнях розуміння та сумісність з різними застосуваннями, включаючи інтелектуальні асистенти. Незважаючи на попередні занепокоєння щодо безпеки, ці моделі інтегрують передові механізми фільтрації для мінімізації ризиків, пов'язаних з їх публічним використанням.

OpenAI вчора ввечері оголосила про випуск двох мовних моделей open-weight, gpt-oss-120B і gpt-oss-20B, доступних за ліцензією Apache 2.0. Цей крок є поворотним моментом для компанії, яка не пропонувала open-weight LLM з часів GPT-2. Ваги моделей доступні публічно на Hugging Face.

Моделі, розроблені для розуміння та ефективності

Обидві моделі базуються на архітектурі Mixture-of-Experts (MoE), з відповідно 117 мільярдів і 21 мільярд параметрів, але активують лише частину (5,1B для 120B, 3,6B для 20B) для кожного токена. Обидві підтримують розширену довжину контексту до 128 000 токенів.

OpenAI заявляє про конкурентоспроможну продуктивність на завданнях розуміння. GPT-OSS-120B досягає результатів, близьких до o4-mini на класичних бенчмарках (MMLU, HLE, TauBench...), при цьому виконуючись на одному GPU 80 ГБ. Модель 20B, легша, оголошена як така, що працює з 16 ГБ пам'яті, що робить її потенційно придатною для використання локально або на вбудованих пристроях.

GPT-OSS доступна для тестування тут

Сумісність та випадки використання

Ці моделі сумісні з API Responses від OpenAI і нативно підтримують Chain-of-Thought (CoT), виклики функцій, структуровані виходи і налаштування зусиль для розуміння залежно від завдання.

OpenAI націлена на використання у агентських робочих потоках, розробці інтелектуальних асистентів, дослідженнях, а також для локального розгортання з міркувань безпеки або суверенітету даних. Такі партнери, як AI Sweden, Orange і Snowflake були залучені на ранніх етапах запуску для вивчення конкретних випадків інтеграції.

Безпека та оцінка ризиків

OpenAI довго пояснювала свій перехід до закритих моделей міркуваннями безпеки. Безпека була в центрі уваги компанії, і саме це стало причиною кількох відтермінувань цього очікуваного випуску моделей Open Weight. OpenAI сьогодні заявляє, що інтегрувала передові механізми фільтрації та пост-навчання для зменшення ризиків, пов'язаних з публічним доступом. Оцінка зовнішніми експертами була проведена на свідомо підроблених версіях (кібербезпека, біологія), в рамках Preparedness Framework від OpenAI.

За словами компанії, навіть у цих екстремальних сценаріях моделі не досягли б тривожного рівня можливостей. Конкурс red teaming з призовим фондом 500 000 $ також був запущений на Kaggle для заохочення колаборативного виявлення вразливостей.

Кероване повернення до open source?

Цей запуск піднімає низку питань. З одного боку, він свідчить про бажання відновити баланс між потужними власними моделями та open source альтернативами. З іншого боку, це дозволяє OpenAI зберігати технічну перевагу, водночас окреслюючи використання, встановлюючи нові стандарти безпеки для open-weight.

Публікація ваг під дозволеною ліцензією, інструменти, що надаються (оптимізовані інференції, harmony renderer, підтримка PyTorch та Metal...), а також партнерства з Azure, Hugging Face або Vercel спрямовані на полегшення прийняття у все більш фрагментованій екосистемі.

Залишається побачити, наскільки ці моделі будуть прийняті спільнотою, особливо в порівнянні з альтернативами, такими як Mistral, LLaMA, Mixtral або Yi, і чи їхня реальна відкритість (зокрема можливість вільного fine-tuning) буде достатньою для задоволення очікувань дослідників і розробників.

 

Ознайомтеся з картками моделей на Hugging Face:

https://huggingface.co/openai/gpt-oss-20b

https://huggingface.co/openai/gpt-oss-120b

 

 

Cet article publirédactionnel est publié dans le cadre d'une collaboration commerciale