Martedì OpenAI ha introdotto due nuovi modelli di intelligenza artificiale (AI) nella famiglia GPT-5.4. Soprannominati GPT-5.4 mini e GPT-5.4 nano, i due modelli AI più piccoli sono più veloci rispetto ai modelli più grandi della famiglia e sono destinati a carichi di lavoro a bassa latenza. Alcuni dei principali punti di forza di questi modelli includono competenza nella codifica, utilizzo del pc, comprensione multimodale e gestione dei subagenti. Per gli sviluppatori, questi modelli saranno anche convenienti, dato il costo inferiore dei token di enter e output.
OpenAI presenta GPT-5.4 Mini e GPT-5.4 Nano
Nell’a articolo del blogil colosso dell’intelligenza artificiale con sede a San Francisco ha annunciato il rilascio dei due nuovi modelli. GPT‑5.4 mini è ora disponibile tramite l’interfaccia di programmazione dell’applicazione (API), Codex e ChatGPT. Nell’API, il modello supporta enter di testo e immagini, uso di strumenti, chiamata di funzioni, ricerca net e file, uso del pc e competenze con la sua finestra di contesto da 400.000 token. Il costo è di 0,75 dollari per milione di token di enter e 4,50 dollari per milione di token di output.
Nell’API, GPT‑5.4 mini supporta enter di testo e immagini, utilizzo di strumenti, chiamate di funzioni, ricerca Net, ricerca di file, utilizzo del pc e competenze. Ha una finestra di contesto di 400.000 e costa $ 0,75 (circa Rs. 68) per 1 milione di token di enter e $ 4,50 (circa Rs. 416) per 1 milione di token di output.
In particolare, GPT-5.4 mini è disponibile per i livelli gratuito e Go tramite la funzione Considering, mentre altri livelli lo troveranno come modello di riserva dopo aver raggiunto il limite di velocità per GPT-5.4 Considering. Venendo a GPT-5.4 nano, è attualmente disponibile solo come offerta API, con un prezzo fissato a 0,20 dollari per milione di enter e 1,25 dollari per milione di token di output.
In termini di capacità, entrambi i modelli sono ottimizzati per attività legate alla codifica purché vengano distribuiti in ambienti veloci e iterativi. OpenAI afferma che i modelli “gestiscono modifiche mirate, navigazione della base di codice, generazione di front-end e cicli di debug con bassa latenza”. Inoltre, si cube che il 5.4 mini superi il GPT-5-mini nella maggior parte delle aree con latenze simili.
Un altro punto di forza unico del modello è la gestione dei subagenti. Mentre i modelli di intelligenza artificiale più ampi della famiglia sono adatti per compiti di agente più complessi che coinvolgono pianificazione, coordinamento e giudizio finale, la variante mini può gestire subagenti che si occupano di sottoattività più ristrette in parallelo.
OpenAI afferma che questi modelli più piccoli offrono agli sviluppatori la possibilità di comporre sistemi in cui un singolo modello non trascura ogni sottoattività in un flusso di lavoro agente. Oltre a ciò, l’azienda sostiene che la variante mini eccelle anche nelle attività multimodali legate all’uso del pc. È interessante notare che, nel benchmark OSWorld-Verified, la variante mini si avvicina a GPT-5.4.













