Large Language Models

DeepSeek V4 Pro evenaart Claude voor 14 procent van de prijs

· 5 min leestijd

DeepSeek bracht vrijdag de previews van V4-Pro en V4-Flash uit. Het hoogste model haalt 80,6 procent op SWE-bench Verified, vrijwel gelijk aan Claude Opus 4.6, voor 3,48 dollar per miljoen output-tokens. Dat is ongeveer veertien procent van de prijs van Claude. De gewichten staan onder MIT-licentie op Hugging Face. Voor Nederlandse mkb-bedrijven die afwegen of ze hun coding- of agentwerk via een Amerikaanse API laten lopen, schuift de rekensom hierdoor merkbaar. Tegelijk zit er een AI Act-laag onder die de keuze niet zo simpel maakt als het prijslijstje suggereert.

Wat er vandaag op tafel ligt

De release bestaat uit twee preview-modellen op Hugging Face, beide met een mixture of experts-architectuur. V4-Pro telt 1,6 biljoen parameters totaal, waarvan er 49 miljard per token actief zijn. V4-Flash is de kleinere variant met 284 miljard parameters totaal en 13 miljard actief. Beide modellen krijgen een context window van een miljoen tokens en draaien in drie modi: snel zonder redeneren, met redeneren, en met maximale reasoning-effort. Die laatste modus, Pro-Max, is de variant waarop DeepSeek de meeste benchmark-claims baseert.

De gepubliceerde prijzen liggen ver onder die van de westerse frontier-modellen. V4-Pro kost 1,74 dollar per miljoen input-tokens en 3,48 dollar voor output. V4-Flash zit op 0,14 en 0,28 dollar. Ter vergelijking, GPT-5.5 die OpenAI deze week uitbracht rekent ongeveer dertig dollar per miljoen output-tokens, en Claude Opus 4.7 zit rond de 25 dollar.

Tachtig komma zes procent op SWE-bench, en wat dat zegt

Op de SWE-bench Verified benchmark, waar modellen echte GitHub-issues moeten oplossen, scoort V4-Pro-Max 80,6 procent. Dat is binnen 0,2 punt van Claude Opus 4.6 en hoger dan vrijwel elk ander open weights-model dat tot nu toe is uitgebracht. Op LiveCodeBench haalt het model 93,5, op Codeforces komt het op een rating van 3206, en op Terminal-Bench 2.0 staat het zelfs boven Claude (67,9 versus 65,4 procent). GPQA Diamond, een redeneer-benchmark op promotie-niveau, valt uit op 90,1.

Twee kanttekeningen. DeepSeek schrijft zelf in het modelpaspoort dat V4-Pro de absolute frontier-modellen "drie tot zes maanden volgt". De benchmarks zijn dus geen claim dat dit het beste model ter wereld is, maar dat het binnen handbereik komt voor een fractie van de prijs. En V4 is verbose. In de evaluatie van Artificial Analysis produceerde het 190 miljoen output-tokens om tot zijn score te komen, en draait het op 35,8 tokens per seconde. Dat is langzaam, en als je per token betaalt drukt die uitvoerigheid de praktische kostenvoorsprong wat in.

De rekensom voor een Nederlandse developer

Reken de prijzen om naar euro: V4-Pro komt neer op zo'n 1,58 euro per miljoen input-tokens en 3,17 euro voor output (excl. btw, koers eind april 2026). Voor een coding-agent die per dag 500 duizend tokens output verwerkt, betekent dat ongeveer 47 euro per maand. Dezelfde workload op Claude Opus zit eerder rond de 330 euro, op GPT-5.4 Pro nog hoger.

De V4-Flash maakt het verschil nog scherper. Voor het gros van de routine-taken, zoals samenvattingen, eerste-lijns klantenservice of intake-formulieren omzetten naar gestructureerde data, is een 13B-active model ruim voldoende. Op 0,28 dollar per miljoen output-tokens praat je over enkele euro's per maand voor een gemiddelde mkb-toepassing. Dat is een ander prijssegment dan waarin de ChatGPT-team of Claude-business-abonnementen opereren.

Open weights onder de AI Act

De MIT-licentie maakt commercieel gebruik en fine-tuning vrij. Voor Nederlandse zorginstellingen, advocatenkantoren en financials die data-residency hard nodig hebben, opent dat een pad om gevoelige data niet meer naar een Amerikaanse cloud te sturen. Maar de juridische werkelijkheid onder de AI Act is genuanceerder dan "open is automatisch makkelijker".

De verordening geeft open source GPAI-modellen wel een lichter regime: ze zijn vrijgesteld van bepaalde transparantieverplichtingen voor downstream-aanbieders en hoeven geen volledige system card te publiceren, mits ze geen systemic risk-model zijn. Een trainingsdata-samenvatting moet wel. DeepSeek heeft die nog niet uitgebreid gepubliceerd voor V4, en de herkomst van de 33 biljoen trainingstokens is gedeeltelijk ondoorzichtig. Voor een Nederlandse deployer betekent dat het volgende: je profiteert van de lichte regulering aan de kant van de aanbieder, maar je blijft zelf volledig aansprakelijk voor de toepassing. Een DPIA blijft dus verplicht voor hoog-risico-toepassingen, en je moet kunnen aantonen dat je het model getest hebt op je specifieke use case.

Wie het model voor een hoog-risico Annex III-toepassing wil inzetten, dus bijvoorbeeld in HR-screening of kredietbeoordeling, krijgt overigens dezelfde compliance-eisen als bij elk ander model. Open weights veranderen daar niets aan.

Self-host of via API, wat realistisch is

Het V4-Pro-bestand is 865 gigabyte op disk in FP4-FP8 mixed precision. Om het in volle pracht te draaien heb je minstens een cluster van acht H200- of A100-kaarten nodig. Voor de meeste Nederlandse bedrijven is dat geen begaanbaar pad: een dergelijke cluster huren bij een Europese GPU-cloud kost al snel een paar duizend euro per maand, los van engineering-tijd.

V4-Flash is een ander verhaal. Het bestand is 160 gigabyte en past op een enkele H200, en met wat aandacht voor quantisatie zelfs op een goed uitgeruste workstation. Voor mkb-bedrijven die echt on-premise willen draaien, is Flash de realistische instap. Daaronder zit nog steeds Gemma 4 als alternatief, dat aanzienlijk kleiner en sneller is op consumer-hardware.

De praktische tussenweg: API-toegang via OpenRouter of Vercel AI Gateway, dat V4 sinds vrijdag aanbiedt. De prijs blijft dan in lijn met DeepSeek's eigen tarieven. Wel verschuift de privacy-discussie. Je data passeert dan een tussenpartij in plaats van Anthropic of OpenAI direct, niet noodzakelijk in een EU-jurisdictie. Voor strikte data-residency gaat dat de toets niet halen.

Wat dit deze week op je radar zet

Drie concrete dingen om mee te nemen. Ten eerste, als je in Q3 een AI-budget vaststelt voor coding-agents of langlopend agentwerk, hoort V4-Pro op je shortlist. Een factor zes goedkoper dan Claude voor vergelijkbare resultaten op SWE-bench is een reëel argument, niet meer een speculatieve belofte zoals bij V3.2 nog gold. Wie meer context wil over hoe het vorige model presteerde, vindt dat in de model-tracker voor DeepSeek V3.2.

Ten tweede, laat je niet meeslepen door koppen dat DeepSeek "Silicon Valley schaakmat zet". Het model loopt naar eigen aangifte drie tot zes maanden achter en Anthropic en OpenAI zetten hun prijzen voorlopig niet zomaar omlaag. De waarde zit in dat je nu echt kunt kiezen, niet in een einde van de westerse modellen.

Ten derde, voor compliance-screening van AI-leveranciers is V4 een goede oefening om je proces te testen. Open weights, MIT-licentie, Chinese herkomst, beperkte training-transparantie en een DPIA-verplichting. Wie dit model door zijn intake-procedure haalt, heeft het lastige werk al gedaan voor de modellen die in de loop van 2026 nog gaan komen. Voor extra technische context over de release schreef Simon Willison een uitgebreide eerste indruk, en de officiële benchmarks staan op de Hugging Face-modelpagina.

Michael Groeneweg
Geschreven door Michael Groeneweg AI-consultant bij Digital Impact en oprichter van UnicornAI.nl

Michael is AI-consultant bij Digital Impact in Rotterdam en oprichter van UnicornAI.nl, waar hij AI-oplossingen en SaaS-integraties bouwt voor bedrijven. Al tien jaar ondernemer, en sinds een paar jaar weigert hij iets te doen waar geen AI in verweven zit, zakelijk noch privé, tot mild ongenoegen van zijn omgeving. Zijn reizen door de wereld zijn inmiddels een serie experimenten in wat AI wel en niet kan vanaf een terrasje in Lissabon of een treinstation in Tokio. Hij test obsessief nieuwe tools, bouwt oplossingen voor klanten, en vindt dat niemand de hype moet geloven, maar ook niemand meer kan doen alsof AI niet alles verandert. Houdt van goede koffie, lange vluchten en mensen die met AI bouwen in plaats van er alleen over praten.

Gemaakt door een mens, met AI als assistent bij research en redactie. Meer over onze werkwijze in de AI-disclosure en het redactiestatuut.