Home Tecnologia DeepSeeek V4 è uscito, pubblicizzando alcune vittorie dirompenti su Gemini, ChatGPT e...

DeepSeeek V4 è uscito, pubblicizzando alcune vittorie dirompenti su Gemini, ChatGPT e Claude

10
0

Il cinese DeepSeek ha l’abitudine di presentarsi, senza essere invitato, al social gathering sull’intelligenza artificiale della Silicon Valley, e questa volta lo ha fatto con la tanto attesa anteprima V4. L’azienda con sede a Hangzhou ha rilasciato il suo ultimo modello di intelligenza artificiale, che batte i popolari modelli americani in alcune aree.

DeepSeek ha lanciato due nuovi modelli: V4-Professional (modalità Esperto) e V4-Flash (modalità Istantanea). Mentre il primo è un enorme modello da 1,6 trilioni di parametri, il secondo ha 284 miliardi di parametri più gestibili. Tuttavia, entrambi hanno una finestra di contesto da un milione di token.

🚀 L’anteprima di DeepSeek-V4 è ufficialmente stay e open supply! Benvenuti nell’period della lunghezza del contesto conveniente di 1 milione.

🔹 DeepSeek-V4-Professional: 1,6 T totali / 49 B parametri attivi. Prestazioni che competono con i migliori modelli closed-source del mondo.
🔹 DeepSeek-V4-Flash: 284 miliardi totali / 13 miliardi di parametri attivi.… pic.twitter.com/n1AgwMIymu

— DeepSeek (@deepseek_ai) 24 aprile 2026

Cosa ha rilasciato esattamente DeepSeek?

Ciò che è ancora più importante è che entrambi i modelli sono open supply, il che significa che sono disponibili per il obtain da Hugging Face ed eseguibili localmente sul tuo {hardware}. Tuttavia, la vastità di V4-Professional significa che avrai bisogno di una notevole quantità di VRAM per eseguirlo localmente.

Una delle parti più interessanti dell’annuncio è il confronto con modelli di intelligenza artificiale popolari come Gemini, ChatGPT e Claude. Advert esempio, V4-Professional dà un duro colpo nella codifica, ottenendo un punteggio di 3.206 nelle valutazioni Codeforces, superando i 3.168 di GPT-5.4 e i 3.052 di Gemini 3.1. Ciò lo rende il modello aperto più forte per attività di programmazione competitiva.

Su LiveCodeBench, V4-Professional registra 93,5, davanti all’88,8 di Claude Opus 4.6 e al 91,7 di Gemini, e allo stesso modo, per le attività di agente, ottiene un punteggio di 51,8 su Toolathlon, battendo sia Claude (47,2) che Gemini (48,8). Il V4-Flash più veloce ed efficiente, nel frattempo, abbina V4-Professional su semplici attività dell’agente, a una frazione del costo di elaborazione.

Dove V4-Professional batte la concorrenza?

Segno di riferimento DeepSeek V4-Professional Claude Opus 4.6 GPT-5.4 Gemelli 3.1 Professional
Codeforce (valutazione) 3.206 3.168 3.052
LiveCodeBench (Move@1) 93,5 88,8 91,7
Elenco dei candidati Apex (Move@1) 90.2 85,9 78.1 89.1
SWE verificato (risolto) 80.6 80.8 80.6
Toolathlon (Move@1) 51.8 47.2 54.6 48.8
Terminale Bench 2.0 (Acc) 67.9 65.4 75.1 68,5
MRCR Contesto lungo 1M 83,5 92,9 76.3
HMMT 2026 Matematica 95.2 96.2 97,7 94,7
IMOAnswerBench 89,8 75.3 91.4 81.0

Tuttavia, ci sono various aree in cui il nuovo modello di DeekSeek è indietro rispetto alla concorrenza. Advert esempio, l’Opus 4.6 di Claude porta al recupero di un contesto lungo. Ha un punteggio di 92,9 su MRCR 1M contro 83,5 di V4-Professional. GPT-5.4 è ancora in testa a Terminal Bench 2.0 con 75,1 contro 67,9 di V4-Professional.

Il punto in cui DeepSeek sconvolge davvero la concorrenza è il prezzo. Il V4-Professional costa 3,48 dollari per milione di token di output, il che, rispetto ai 30 dollari di OpenAI e ai 25 dollari di Anthropic per carichi di lavoro equivalenti, potrebbe sembrare molto più interessante per i potenziali clienti. Questo divario è enorme per gli sviluppatori che ogni giorno creano app basate sull’intelligenza artificiale.

fonte

LEAVE A REPLY

Please enter your comment!
Please enter your name here