OpenAI gpt-oss: lo stato dell’arte dell’AI, ora open e alla portata di tutti

OpenAI gpt-oss

OpenAI ha rilasciato gpt-oss-120b e gpt-oss-20b, due modelli linguistici open-weight all’avanguardia che offrono prestazioni elevate nel mondo reale a basso costo. 

Disponibili con la licenza flessibile Apache 2.0, secondo l’azienda questi modelli superano i modelli open di dimensioni simili nelle attività di ragionamento, dimostrano forti capacità di utilizzo degli strumenti e sono ottimizzati per un’implementazione efficiente su hardware consumer. Sono stati addestrati utilizzando una combinazione di apprendimento rinforzato e tecniche basate sui modelli interni più avanzati di OpenAI, tra cui o3 e altri sistemi all’avanguardia.

Il modello gpt-oss-120b raggiunge una parità quasi totale con OpenAI o4-mini nei benchmark di ragionamento di base, funzionando in modo efficiente su una singola GPU da 80 GB. Il modello gpt-oss-20b offre risultati simili a quelli di OpenAI o3-mini sui benchmark comuni e può funzionare su dispositivi edge con soli 16 GB di memoria, rendendolo ideale per casi d’uso on-device, inferenza locale o iterazioni rapide senza infrastrutture costose. Entrambi i modelli hanno anche ottime prestazioni nell’uso degli strumenti, nella chiamata di funzioni few-shot, nel ragionamento CoT (come si vede nei risultati della suite di valutazione agentica Tau-Bench) e in HealthBench (superando persino modelli proprietari come OpenAI o1 e GPT-4o).

Questi modelli –– spiega OpenAI – sono compatibili con l’API Responses dell’azienda e sono progettati per essere utilizzati all’interno di flussi di lavoro agentici con elevata capacità di seguire le istruzioni, utilizzo di strumenti come la ricerca web o l’esecuzione di codice Python e capacità di ragionamento, inclusa la possibilità di regolare lo sforzo di ragionamento per attività che non richiedono ragionamenti complessi e/o mirano a risultati finali con latenza molto bassa.

Sono completamente personalizzabili, forniscono una catena di pensiero completa (CoT) e supportano output strutturati.

La sicurezza è fondamentale nell’approccio al rilascio di tutti i modelli dell’azienda, mette in evidenza OpenAI, ed è di particolare importanza per i modelli aperti. Oltre a sottoporre i modelli a un training e a valutazioni complete in materia di sicurezza, il team ha anche introdotto un ulteriore livello di valutazione testando una versione di gpt-oss-120b ottimizzata in modo avversario nell’ambito del Preparedness Framework. Secondo il team, i modelli gpt-oss hanno prestazioni paragonabili a quelle dei modelli all’avanguardia di OpenAI, nei benchmark interni di sicurezza, offrendo agli sviluppatori gli stessi standard di sicurezza dei recenti modelli proprietari. L’azienda condivide i risultati di questo lavoro e ulteriori dettagli in un documento di ricerca e nella scheda del modello. La metodologia è stata esaminata da esperti esterni e segna un passo avanti nella definizione di nuovi standard di sicurezza per i modelli open-weight.

OpenAI ha anche collaborato con i primi partner come AI Sweden, Orange e Snowflake per approfondire le applicazioni reali dei modelli aperti, dall’hosting di questi modelli on-premises per la sicurezza dei dati al loro fine-tuning su set di dati specializzati. Secondo OpenAI, questi modelli aperti sono i migliori della categoria e sono progettati per consentire a tutti, dai singoli sviluppatori alle grandi imprese ai governi, di eseguire e personalizzare l’IA sulla propria infrastruttura. Insieme ai modelli disponibili nella API di OpenAI, gli sviluppatori possono scegliere le prestazioni, i costi e la latenza di cui hanno bisogno per alimentare i propri flussi di lavoro AI.

I pesi sia per gpt-oss-120b che per gpt-oss-20b sono disponibili gratuitamente per il download su Hugging Face e sono quantizzati in modo nativo in MXFP4. Ciò consente al modello gpt-oss-120B di funzionare con 80 GB di memoria, mentre gpt-oss-20b richiede solo 16 GB.

I modelli sono stati post-addestrati sul formato di prompt harmony di OpenAI e l’azienda sta rendendo open source un renderer harmony sia in Python che in Rust per facilitarne l’adozione. OpenAI sta anche rilasciando implementazioni di riferimento per eseguire l’inferenza con PyTorch e sulla piattaforma Metal di Apple, insieme a una raccolta di strumenti di esempio per il modello.

OpenAI afferma di aver progettato questi modelli per essere flessibili e facili da eseguire ovunque: localmente, sul dispositivo o tramite fornitori di inferenza di terze parti. A tal fine, prima del lancio ha stretto partnership con piattaforme di deployment leader come Hugging Face, Azure, vLLM, Ollama, llama.cpp, LM Studio, AWS, Fireworks, Together AI, Baseten, Databricks, Vercel, Cloudflare e OpenRouter per rendere i modelli ampiamente accessibili agli sviluppatori. Dal punto di vista hardware, il team ha collaborato con leader del settore quali NVIDIA, AMD, Cerebras e Groq per garantire prestazioni ottimizzate su una vasta gamma di sistemi.

Come parte del rilascio odierno, Microsoft sta anche introducendo versioni ottimizzate per GPU del modello gpt-oss-20b sui dispositivi Windows. Basati su ONNX Runtime, questi modelli supportano l’inferenza locale e sono disponibili tramite Foundry Local e AI Toolkit per VS Code, rendendo più facile per gli sviluppatori Windows creare soluzioni con modelli aperti.

Per gli sviluppatori che desiderano modelli completamente personalizzabili che possono mettere a punto e distribuire nei propri ambienti, gpt-oss è la soluzione ideale, afferma OpenAI. Per coloro che cercano supporto multimodale, strumenti integrati e una perfetta integrazione con la piattaforma OpenAI, i modelli disponibili tramite la piattaforma API dell’azienda rimangono l’opzione migliore.

Chi desidera provare i modelli, può visitare il playground dei modelli open. Per ulteriori informazioni su come utilizzare i modelli con diversi fornitori di ecosistemi o su come ottimizzarli, è possibile consultare le guide.

Per maggiori dettagli sull’architettura dei modelli, sul pre e post-training, sui benchmark e sulla sicurezza, è possibile leggere il blog di OpenAI. 

Dal punto di vista di OpenAI, il rilascio di gpt-oss-120b e gpt-oss-20b segna un significativo passo avanti per i modelli open-weight. Considerate le loro dimensioni, questi modelli offrono progressi significativi sia in termini di capacità di ragionamento che di sicurezza. I modelli open affiancano i modelli hosted di OpenAI, offrendo agli sviluppatori una gamma più ampia di strumenti per accelerare la ricerca all’avanguardia, promuovere l’innovazione e consentire uno sviluppo dell’IA più sicuro e trasparente in un’ampia gamma di casi d’uso.

Questi modelli aperti riducono anche le barriere per i mercati emergenti, i settori con risorse limitate e le organizzazioni più piccole che potrebbero non disporre del budget o della flessibilità necessari per adottare modelli proprietari. Con strumenti potenti e accessibili a disposizione, le persone in tutto il mondo possono costruire, innovare e creare nuove opportunità per se stesse e per gli altri. L’ampio accesso a questi modelli open-weight creati negli Stati Uniti – aggiunge inoltre OpenAI, con quel che sembra un velato riferimento a DeepSeek – contribuisce ad ampliare i binari democratici dell’IA.

Un ecosistema di modelli aperti sano è una dimensione che contribuisce a rendere l’IA ampiamente accessibile e vantaggiosa per tutti, afferma OpenAI, che invita pertanto sviluppatori e ricercatori a utilizzare questi modelli per sperimentare, collaborare e spingere oltre i confini di ciò che è possibile. 

Se questo articolo ti è piaciuto e vuoi rimanere sempre informato sulle novità tecnologiche

LASCIA UN COMMENTO

Inserisci il tuo commento
Inserisci il tuo nome