Home Tecnologia I nuovi modelli di DeepSeek affrontano la Silicon Valley a una frazione...

I nuovi modelli di DeepSeek affrontano la Silicon Valley a una frazione del costo

13
0

DeepSeek ha lanciato oggi le versioni di anteprima dei suoi attesissimi modelli IA V4, riducendo ancora una volta il divario con i principali modelli IA delle più grandi aziende tecnologiche del mondo.

La startup cinese rilasciato due versioni open supply, un modello V4 Professional advert alte prestazioni e un modello V4 Flash più economico e più piccolo. L’azienda si propone come competitiva con i sistemi di frontiera, evidenziando ottime prestazioni nella codifica, ragionamento migliorato e capacità di agenti più avanzate.

Uno degli aggiornamenti più accattivanti è il passaggio a una finestra di contesto da 1 milione di token, che consente ai modelli di elaborare intere basi di codice o documenti estremamente lunghi in un unico immediate.

Ma ciò che distingue davvero questi modelli è la loro attenzione all’efficienza.

I modelli V4 si basano su un’architettura Combine-of-Specialists (MoE), un design che attiva solo un sottoinsieme dei parametri del modello in un dato momento. Sebbene il sistema possa avere trilioni di parametri in totale, ne viene utilizzata solo una frazione per attività, il che mantiene bassi i costi di inferenza.

I nuovi modelli arrivano poco più di un anno dopo che DeepSeek ha fatto notizia per la prima volta con il suo modello di ragionamento R1. Quel sistema rivaleggiava con modelli avanzati di aziende come OpenAI e Google, ma secondo quanto riferito period stato costruito a una frazione del costo e utilizzava meno chip AI per l’addestramento. La notizia ha addirittura scatenato un Svendita di trilioni di dollari a Wall Streetcon Nvidia che ha perso quasi 600 milioni di dollari in un solo giorno.

Nell’a documento tecnicol’azienda afferma che i suoi ultimi modelli sono competitivi, pur riconoscendo un piccolo divario prestazionale.

“Attraverso l’espansione dei token di ragionamento, DeepSeek-V4-Professional-Max dimostra prestazioni superiori rispetto a GPT-5.2 e Gemini-3.0-Professional sui benchmark di ragionamento customary”, ha affermato la società. “Tuttavia, le sue prestazioni sono leggermente inferiori a quelle di GPT-5.4 e Gemini-3.1-Professional, suggerendo una traiettoria di sviluppo che segue i modelli di frontiera all’avanguardia di circa 3-6 mesi.”

Tuttavia, per molti utenti, il risparmio sui costi potrebbe superare qualsiasi lieve calo di prestazioni.

Il creatore di Datasette, Simon Willison, ha confrontato sul suo conto i prezzi dei token tra i principali modelli blog e ho trovato DeepSeek il più economico della sua categoria.

DeepSeek lo è ricarica 0,14 dollari per milione di token di enter e 0,28 dollari per milione di token di output per il modello Flash V4. Per fare un confronto, GPT-5.4 Nano costa 0,20 dollari per milione di token di enter e 1,25 dollari per milione di token di output, mentre Claude Haiku 4.5 ha un prezzo rispettivamente di 1 e 5 dollari per milione di token di enter e output.

Il divario diventa ancora più netto quando si tratta dei modelli professionali. DeepSeek addebita 1,74 dollari per milione di token di enter e 3,48 dollari per milione di token di output per il suo modello V4 Professional. In confronto, Gemini 3.1 Professional costa 2 dollari per milione di token di enter e 12 dollari per milione di token di output, mentre GPT-5.5 ha un prezzo rispettivamente di 5 e 30 dollari per milione di token di enter e output.

E, naturalmente, in linea con le versioni precedenti di DeepSeek, V4 ha la licenza MIT ed è a peso aperto, quindi se hai le risorse per eseguirlo, è “gratuito” nel modo in cui un movie su Netflix è “gratuito”. Nessuno ti sta addebitando il costo nel momento in cui premi play, ma il contatore è ancora in funzione da qualche parte. In questo caso, è la bolletta della luce.

fonte