目次
OpenAIは昨夜、2つのオープンウェイト言語モデル、gpt-oss-120Bとgpt-oss-20BをApache 2.0ライセンスの下でリリースしたと発表しました。この動きは、GPT-2以来オープンウェイトのLLMを提供していなかった同社にとっての転換点を示しています。モデルの重みはHugging Faceで公開されています。
推論と効率性のために設計されたモデル
これらのモデルはMixture-of-Experts(MoE)アーキテクチャに基づいており、それぞれ1170億と210億のパラメータを持ちながらも、各トークンで活性化されるのはその一部(120Bで5.1B、20Bで3.6B)です。どちらのモデルも、128,000トークンまでのコンテキスト長をサポートしています。
OpenAIは、推論タスクにおける競争力のあるパフォーマンスを主張しています。GPT-OSS-120Bは、従来のベンチマーク(MMLU、HLE、TauBenchなど)でo4-miniに近い結果を達成し、80GBの単一GPUで実行可能です。より軽量な20Bモデルは、16GBのメモリで動作するとされ、ローカルまたは組み込みデバイスでの利用が想定されています。
互換性と使用例
これらのモデルは、OpenAIのAPI Responsesと互換性があり、Chain-of-Thought(CoT)、関数呼び出し、構造化出力、タスクに応じた推論の調整をネイティブでサポートしています。
OpenAIは、エージェントワークフロー、インテリジェントアシスタントの開発、研究、データのセキュリティや主権のためのローカル展開での使用を目指しています。AI Sweden、Orange、Snowflakeのようなパートナーが、具体的な統合のケースを探るために事前に関与しました。
セキュリティとリスク評価
OpenAIは、安全性の問題からクローズドモデルへの転換を長らく説明してきました。セキュリティは同社の考慮事項の中心であり、この期待されていたオープンウェイトモデルのリリースの遅延の原因でもありました。OpenAIは今日、公開利用に伴うリスクを軽減するために高度なフィルタリングとポストトレーニングのメカニズムを統合したと述べています。外部の専門家による評価も行われ、悪意のある方法で微調整されたバージョン(サイバーセキュリティ、生物学)をPreparedness Frameworkの一環として検証しました。
同社によれば、極端なシナリオでも、モデルは懸念すべき能力レベルには達しないとしています。さらに、50万ドルの報奨金がかけられたレッドチーミングチャレンジがKaggleで開始され、脆弱性の共同検出を奨励しています。
オープンソースへの制御された復帰?
このリリースは多くの疑問を提起します。一方で、強力な独自モデルとオープンソースの選択肢のバランスを再調整したいという意図を示しています。他方、OpenAIが技術的なアドバンテージを維持しつつ、使用を制御し、オープンウェイトの新しいセキュリティ基準を設定することが可能になります。
許可されたライセンスの下での重みの公開、提供されるツール(最適化された推論、harmony renderer、PyTorchとMetalのサポートなど)、およびAzure、Hugging Face、Vercelとのパートナーシップは、ますます分断化するエコシステム内での採用を促進することを目的としています。
これらのモデルがコミュニティによってどの程度受け入れられるか、特にMistral、LLaMA、Mixtral、Yiのような代替案に対して、そしてそれらのオープン性(特に自由な微調整の可能性)が研究者や開発者の期待に応えるのに十分かどうかは、今後の課題です。
Hugging Faceでモデルの詳細をご覧ください:
https://huggingface.co/openai/gpt-oss-20b
https://huggingface.co/openai/gpt-oss-120b
Cet article publirédactionnel est publié dans le cadre d'une collaboration commerciale