Indica un intervallo di date:
  • Dal Al
tecnologia

Aspettando ChatGpt5 OpenAI lancia modelli “open-weight” per fronteggiare DeepSeek e Meta

 

 

OpenAI ha fatto un passo storico: il 5 agosto 2025 ha reso disponibili due modelli open-weight — gpt‑oss‑120B e gpt‑oss‑20B — liberamente scaricabili, modificabili e distribuibili sotto licenza Apache 2.0. Con queste mosse sfida Meta (Llama 4) e il cinese DeepSeek, democratizzando modelli di IA di alta potenza accessibili anche offline su hardware consumer. Qui spieghiamo in cinque punti di che si tratta.

La svolta open-weight: cosa cambia rispetto al passato
Dopo sei anni senza rilascio di modelli aperti, OpenAI presenta GPT‑oss: è possibile scaricare, personalizzare i parametri e utilizzare il modello offline. Non si ha accesso ai dati di addestramento o al codice sorgente completo. Questa release prosegue la tradizione di OpenAI di rilascio di modelli open source, tra cui Whisper, GPT – 2 e CLIP . Costruirà la prossima generazione di infrastrutture di intelligenza artificiale su binari democratici, modelli radicati nell’apertura, nella libertà intellettuale e nell’ampio accesso.  Questa modalità differisce dai modelli “open‑source” completi, ma rappresenta comunque un’apertura significativa in un panorama dominato da API chiuse.

Due versioni, due utilizzi: gpt‑oss‑20B e gpt‑oss‑120B
gpt‑oss‑20B: adatto a laptop o PC con almeno 16 GB di RAM. Offre chain‑of‑thought reasoning e funzionalità di coding. Più nello specifico: gpt‑oss‑120B eguaglia o supera i livelli di ragionamento del modello proprietario o4-mini, funzionando su una sola GPU da 80 GB. gpt‑oss‑20B invece offre performance vicine al modello o3-mini ed è eseguibile su dispositivi con soli 16 GB di memoria, come PC portatili o laptop ad elevate prestazione. gpt‑oss‑120B: richiede GPU più potenti, ma raggiunge performance comparabili al modello proprietario o4‑mini di OpenAI. Ideale per contesti enterprise o di ricerca avanzata.

Come sono stati progettati? 

Entrambi i modelli utilizzano un’architettura MoE: 117 B parametri totali nel modello principale ma solo ~5 miliardi attivi per token nel 120B; 21 B totali e ~3.6 B attivi nel 20B. Questa struttura consente inferenza efficiente e prestazioni elevate anche con meno risorse

La sicurezza e i controlli. 
OpenAI ha eseguito test approfonditi sul potenziale uso improprio — da richieste su agenti biologici fino a fine-tuning malevoli — con riscontri di basso rischio secondo il proprio Preparedness Framework. Ogni dettaglio sulla sicurezza e i processi tecnici è stato pubblicato in forma completa e accessibile.  I modelli sono stati valutati anche da tre gruppi indipendenti, che hanno suggerito miglioramenti nelle procedure di sicurezza.

La strategia sui modelli aperti.

Questa release è una diretta risposta ai modelli open-weight emergenti, come DeepSeek (modello R1/V3) in Cina e Llama 4 di Meta, consolidando il ruolo di OpenAI nel panorama open AI. CEO Sam Altman ha enfatizzato l’obiettivo di rendere l’intelligenza artificiale più democratica, accessibile e allineata a valori condivisi. DeepSeek-R1, modello open cinese lanciato nel gennaio 2025 che ha superato ChatGPT nelle classifiche App Store, provocando flessioni enormi delle azioni tech statunitensi. Meta propone Llama, anch’esso open-weight ma con restrizioni, mentre DeepSeek si afferma per costi di addestramento estremamente contenuti (circa 6 milioni di dollari) e alta efficienza
Secondo OpenAI, l’obiettivo è favorire sviluppatori indipendenti, startup e utenti sensibili alla privacy, offrendo strumenti potenti e personalizzabili anche offline.

Per approfondire.

ChatGpt, OpenAI lancia la modalità studio per studenti