Índice
A OpenAI anunciou ontem à noite o lançamento de dois modelos de linguagem open-weight, gpt-oss-120B e gpt-oss-20B, disponíveis sob licença Apache 2.0. Esta iniciativa marca uma virada para a empresa, que não oferecia um LLM open-weight desde o GPT-2. Os pesos dos modelos estão acessíveis publicamente no Hugging Face.
Modelos concebidos para raciocínio e eficiência
Os dois modelos se baseiam em uma arquitetura Mixture-of-Experts (MoE), com respectivamente 117 bilhões e 21 bilhões de parâmetros no total, mas ativando apenas uma fração (5,1B para o 120B, 3,6B para o 20B) a cada token. Ambos suportam um comprimento de contexto estendido a 128.000 tokens.
A OpenAI afirma que os modelos apresentam desempenho competitivo em tarefas de raciocínio. O GPT-OSS-120B alcançaria resultados próximos ao o4-mini nos benchmarks clássicos (MMLU, HLE, TauBench...), enquanto é executável em uma única GPU de 80 GB. O modelo 20B, mais leve, é anunciado como funcionando com 16 GB de memória, tornando-o potencialmente utilizável localmente ou em dispositivos embarcados.
Compatibilidade e casos de uso
Esses modelos são compatíveis com a API Responses da OpenAI e integram nativamente o suporte ao Chain-of-Thought (CoT), chamadas de funções, saídas estruturadas e ajuste do esforço de raciocínio conforme a tarefa.
A OpenAI visa usos em fluxos de trabalho agênticos, desenvolvimento de assistentes inteligentes, pesquisa, ou ainda implantação local por razões de segurança ou soberania de dados. Parceiros como AI Sweden, Orange e Snowflake foram envolvidos antes do lançamento para explorar casos concretos de integração.
Segurança e avaliação de riscos
A OpenAI há muito tempo explicou sua transição para modelos fechados por questões de segurança. A segurança, portanto, esteve no centro das considerações da empresa e foi a razão de vários adiamentos deste tão esperado lançamento de modelos Open Weight. A OpenAI afirma hoje ter integrado mecanismos avançados de filtragem e pós-treinamento para reduzir os riscos associados à disponibilização pública. Foi realizada, notadamente, uma avaliação por especialistas externos em versões deliberadamente fine-tuned de forma maliciosa (cibersegurança, biologia), no âmbito do Preparedness Framework da OpenAI.
Segundo a empresa, mesmo nesses cenários extremos, os modelos não alcançariam níveis de capacidades preocupantes. Um desafio de red teaming dotado de 500.000 $ também foi lançado no Kaggle para incentivar a detecção colaborativa de vulnerabilidades.
Um retorno controlado ao open source?
Este lançamento levanta várias questões. Por um lado, demonstra uma vontade de reequilibrar a oferta entre modelos proprietários poderosos e alternativas open source. Por outro lado, permite à OpenAI manter uma vantagem técnica enquanto enquadra os usos, estabelecendo novos padrões de segurança para o open-weight.
A publicação dos pesos sob licença permissiva, as ferramentas disponibilizadas (inferências otimizadas, harmony renderer, suporte PyTorch e Metal...), assim como as parcerias com Azure, Hugging Face ou Vercel visam facilitar a adoção em um ecossistema cada vez mais fragmentado.
Resta ver em que medida esses modelos serão adotados pela comunidade, especialmente em face de alternativas como Mistral, LLaMA, Mixtral ou Yi, e se sua abertura efetiva (notadamente a possibilidade de fine-tuning livre) será suficiente para atender às expectativas de pesquisadores e desenvolvedores.
Descubra as fichas dos modelos no Hugging Face:
https://huggingface.co/openai/gpt-oss-20b
https://huggingface.co/openai/gpt-oss-120b
Cet article publirédactionnel est publié dans le cadre d'une collaboration commerciale