Sommario
OpenAI ha annunciato ieri sera il rilascio di due modelli di linguaggio open-weight, gpt-oss-120B e gpt-oss-20B, disponibili sotto licenza Apache 2.0. Questo approccio segna una svolta per l'azienda, che non offriva più LLM open-weight dall'epoca di GPT-2. I pesi dei modelli sono accessibili pubblicamente su Hugging Face.
Modelli progettati per il ragionamento e l'efficienza
I due modelli si basano su un'architettura Mixture-of-Experts (MoE), con rispettivamente 117 miliardi e 21 miliardi di parametri totali, ma attivando solo una frazione (5,1B per il 120B, 3,6B per il 20B) per ogni token. Entrambi supportano una lunghezza di contesto estesa a 128.000 token.
OpenAI reclama prestazioni competitive nei compiti di ragionamento. GPT-OSS-120B raggiungerebbe risultati vicini a o4-mini sui benchmark classici (MMLU, HLE, TauBench...), pur essendo eseguibile su un singolo GPU da 80 GB. Il modello 20B, più leggero, è annunciato per funzionare con 16 GB di memoria, rendendolo potenzialmente utilizzabile in locale o su dispositivi integrati.
Compatibilità e casi d'uso
Questi modelli sono compatibili con l'API Responses di OpenAI e integrano nativamente il supporto per il Chain-of-Thought (CoT), le chiamate di funzioni, le uscite strutturate e l'adattamento dello sforzo di ragionamento in base al compito.
OpenAI mira a usi nei flussi di lavoro agentici, nello sviluppo di assistenti intelligenti, nella ricerca o nel dispiegamento in locale per motivi di sicurezza o sovranità dei dati. Partner come AI Sweden, Orange e Snowflake sono stati coinvolti prima del lancio per esplorare casi concreti di integrazione.
Sicurezza e valutazione dei rischi
OpenAI ha a lungo spiegato il suo spostamento verso modelli chiusi per motivi di sicurezza. La sicurezza è stata quindi al centro delle considerazioni dell'azienda e ha causato diversi rinvii di questo tanto atteso rilascio di modelli Open Weight. OpenAI afferma oggi di aver integrato meccanismi avanzati di filtraggio e post-formazione per ridurre i rischi legati alla disponibilità pubblica. È stata condotta una valutazione da parte di esperti esterni su versioni deliberatamente fine-tunate in modo malevolo (cybersicurezza, biologia), nell'ambito del Preparedness Framework di OpenAI.
Secondo l'azienda, anche in questi scenari estremi, i modelli non raggiungerebbero livelli di capacità preoccupanti. È stata inoltre lanciata una sfida di red teaming dotata di 500.000 $ su Kaggle per incoraggiare il rilevamento collaborativo di vulnerabilità.
Un ritorno controllato all'open source?
Questo lancio solleva diverse domande. Da un lato, testimonia la volontà di riequilibrare l'offerta tra modelli proprietari potenti e alternative open source. Dall'altro, permette a OpenAI di mantenere un vantaggio tecnico, mentre stabilisce nuovi standard di sicurezza per l'open-weight.
La pubblicazione dei pesi sotto licenza permissiva, gli strumenti messi a disposizione (inferenze ottimizzate, harmony renderer, supporto PyTorch e Metal...), così come le partnership con Azure, Hugging Face o Vercel mirano a facilitare l'adozione in un ecosistema sempre più frammentato.
Resta da vedere in che misura questi modelli saranno adottati dalla comunità, soprattutto di fronte ad alternative come Mistral, LLaMA, Mixtral o Yi, e se la loro effettiva apertura (in particolare la possibilità di fine-tuning libero) sarà sufficiente a soddisfare le aspettative di ricercatori e sviluppatori.
Scopri le schede modello su Hugging Face:
https://huggingface.co/openai/gpt-oss-20b
https://huggingface.co/openai/gpt-oss-120b
Cet article publirédactionnel est publié dans le cadre d'une collaboration commerciale