Home Tecnologia OpenAI riduce GPT-5.4 per velocità e costi inferiori

OpenAI riduce GPT-5.4 per velocità e costi inferiori

9
0

OpenAI sta ridimensionando i suoi ultimi modelli per raggiungere un obiettivo diverso, risposte più rapide e costi molto inferiori. I nuovi GPT-5.4 mini e nano sono progettati per gli sviluppatori che si preoccupano più della reattività che di spremere fino all’ultimo briciolo di potere di ragionamento.

Entrambi i modelli sono disponibili a partire da oggi. GPT-5.4 mini funziona più del doppio della velocità del suo predecessore rimanendo vicino al GPT-5.4 completo nei benchmark chiave. GPT-5.4 nano va oltre, concentrandosi su attività più semplici come la classificazione e l’estrazione dei dati dove l’efficienza conta di più.

Questo approccio si adatta alle app in cui la velocità modella l’esperienza. Gli assistenti di codifica, gli agenti in background e gli strumenti di visione in tempo reale dipendono da un suggestions rapido e in questi casi un modello leggermente più piccolo spesso offre un risultato complessivo migliore.

Quante prestazioni perdi effettivamente

Il divario prestazionale tra i modelli è più ristretto di quanto ci si potrebbe aspettare. GPT-5.4 mini ottiene un punteggio del 54,4% su SWE-Bench Professional, rispetto al 57,7% del modello completo. Su OSWorld-Verified, la mini raggiunge il 72,1% mentre la versione più grande raggiunge il 75%, mantenendo la differenza ridotta tra le attività.

I costi diminuiscono in modo molto più drammatico. GPT-5.4 mini ha un prezzo di $ 0,75 per milione di token di enter e $ 4,50 per milione di token di output, mentre nano arriva a $ 0,20 e $ 1,25. Entrambi i modelli supportano enter di testo e immagini, utilizzo di strumenti, chiamata di funzioni e una finestra di contesto di 400.000 token, quindi il prezzo più basso non elimina le funzionalità principali.

Nel Codex, il modello mini utilizza solo il 30% della quota GPT-5.4. Ciò consente agli sviluppatori di spostare il lavoro di codifica di routine a un livello più economico salvando al contempo il modello completo per ragionamenti più complessi.

Quando i modelli più piccoli fanno il lavoro pesante

OpenAI sta anche promuovendo un flusso di lavoro multi-modello. Invece di fare affidamento su un unico sistema, gli sviluppatori possono suddividere il lavoro su più livelli, abbinando un modello più ampio per la pianificazione a modelli più piccoli che gestiscono l’esecuzione.

Questa configurazione riflette quante app reali si comportano già. Un modello può rivedere una base di codice o decidere le modifiche, mentre un altro elabora dati di supporto o passaggi ripetitivi. Il modello più piccolo gestisce il lavoro prevedibile, mentre quello più grande si concentra sul giudizio e sul coordinamento.

I primi suggestions suggeriscono che questo combine è efficace. Il CTO di Hebbia Aabhas Sharma ha riferito che GPT-5.4 mini ha eguagliato o sovraperformato i modelli concorrenti in various attività a un costo inferiore e in alcuni casi ha persino fornito risultati end-to-end migliori rispetto al GPT-5.4 completo.

Cosa usare e quando

GPT-5.4 mini è ora disponibile su API, Codex e ChatGPT. Gli utenti Free and Go possono accedervi tramite l’opzione Pondering, mentre altri utenti potrebbero vederlo come un fallback quando raggiungono i limiti su GPT-5.4 Pondering.

Il modello nano è attualmente limitato all’API, rivolto ai workforce che eseguono carichi di lavoro advert alto quantity in cui il controllo dei costi è fondamentale. Entrambi i modelli sono attivi oggi con la documentazione completa disponibile.

Per gli sviluppatori che creano funzionalità di intelligenza artificiale in tempo reale, il cambiamento è chiaro. I modelli più piccoli sono ora sufficientemente capaci da gestire una quota maggiore del lavoro quotidiano, il che rende la scelta del giusto equilibrio tra velocità, costo e capacità una decisione sempre più pratica.

fonte

LEAVE A REPLY

Please enter your comment!
Please enter your name here