Het model dat je deze week probeert in te kopen is van een telefoonmaker. Niet van OpenAI, niet van Anthropic, niet van Google. Xiaomi, bekend van de smartphones in je broekzak en de robotstofzuiger op je vloer, gooide op 28 april MiMo-V2.5 open onder MIT-licentie. De benchmarks claimen Claude Sonnet-niveau op code, plus 1 miljoen tokens context en native invoer voor tekst, beeld, video en audio. En de prijs op OpenRouter? Veertig dollarcent per miljoen input-tokens. Even slikken.
Voor de gemiddelde mkb-er in Nederland die maandelijks honderden euro's aan API-credits van Claude of GPT-5.5 afrekent, is dat geen voetnoot. Het is een aanleiding om de pricing-pagina van je AI-leverancier opnieuw te lezen. Dit is wat er precies gebeurde, en wat het concreet voor jouw werk betekent.
Wat heeft Xiaomi precies opengegooid?
De release bevat twee modellen. MiMo-V2.5 is een sparse Mixture-of-Experts met 310 miljard parameters waarvan er 15 miljard per token actief zijn. Zijn grotere broer MiMo-V2.5-Pro telt 1,02 biljoen parameters met 42 miljard actief. Beide draaien op een hybride sliding-window-attention-architectuur, beide ondersteunen 1 miljoen tokens context, en beide zijn getraind in FP8 op ongeveer 48 biljoen tokens data.
De multimodaliteit is wat MiMo onderscheidt van alleen-tekst-modellen als Qwen 3.6. Het model heeft ingebouwde encoders voor visie (729 miljoen parameters) en audio (261 miljoen parameters). Je kunt er een MP4 in gooien en vragen welke seconde de stempel staat. Je kunt een spraakmemo uploaden en vragen om een transcript plus actiepunten. Geen aparte Whisper-pipeline, geen losse vision-API erachter geplakt.
Wat opvallender is dan de specs: de licentie. MIT betekent dat je het model commercieel mag inzetten, mag finetunen op je eigen data, mag herdistribueren en mag inbouwen in een eigen product zonder iemand te bellen. Geen revenue-share, geen "must-credit Xiaomi"-clausule, geen aparte enterprise-onderhandeling. Download de gewichten van Hugging Face en je bent klaar.
Daarnaast deelt Xiaomi 100 biljoen gratis input-tokens uit aan ontwikkelaars die zich registreren op platform.xiaomimimo.com. Even voor de schaal: dat is genoeg om een gemiddelde codebase ongeveer een miljoen keer in te lezen.
Hoe goed is het écht?
Op SWE Bench Pro, de benchmark die echte software-engineering-taken meet, scoort MiMo-V2.5 een 56,1. Op Terminalbench 2, dat agent-gedrag in een shell-omgeving toetst, komt het uit op 65,8. Die getallen plaatsen het model in de directe omgeving van Claude Sonnet 4.6, niet van Claude Opus 4.7. Voor coding-agents en RAG-pipelines die geen frontier-niveau nodig hebben (en dat is voor de meeste praktijktoepassingen het geval), is dat ruim voldoende.
De multimodale benchmarks zijn lastiger te plaatsen. Xiaomi vergelijkt zichzelf met Gemini 3 Pro op video-understanding en met Claude Sonnet 4.6 op image-perception, en claimt vergelijkbare scores. Een onafhankelijke replicatie ontbreekt nog. Wat wel verifieerbaar is: de modelkaart op Hugging Face geeft de exacte training-recipe (text pre-training, projector warmup, multimodale pre-training, SFT en agentic post-training, RL en MOPD). Geen verstopt geheim, geen "trust us, it's a major step forward". Je kunt zelf met een testdataset van bijvoorbeeld vijfhonderd Nederlandse facturen of vijftig boekhoud-screenshots een avond aan de slag en weten of het model jouw werk aankan.
Xiaomi noemt het zelf "a major step forward in agentic capability and multimodal understanding". Even afstand nemen: dat is marketing-taal en je leest het bij elke release. Het verschil is dat je MiMo-V2.5 vandaag kunt downloaden en de cijfers zelf kunt narekenen.
Wat kost het in euro's?
Op OpenRouter staat MiMo-V2.5 op $0.40 per miljoen input-tokens en $2.00 per miljoen output-tokens. Reken om naar euro's tegen de huidige koers en je zit op ongeveer 37 cent in en 1,85 euro uit per miljoen tokens. Excl btw.
Vergelijk dat met wat je nu betaalt. Claude Sonnet 4.6 zit op ongeveer $3 in en $15 out per miljoen tokens. Claude Opus 4.7 op $15 in en $75 out. GPT-5.5 ligt daar tussenin. Voor een typische RAG-toepassing waar je grote documenten inleest en korte antwoorden krijgt (input-zwaar dus), spaar je met MiMo-V2.5 ongeveer 87 procent uit ten opzichte van Sonnet en bijna 98 procent ten opzichte van Opus.
Denk aan een autoindustrie waar je BMW-prijzen betaalt voor een Toyota-prestatie. Dat is wat de meeste bedrijven nu doen met hun AI-credits. Niet omdat ze dom zijn, maar omdat het Westerse frontier-aanbod tot voor kort het enige was dat productieklaar oogde. Dat verandert in razend tempo.
Een rekenvoorbeeld. Stel je hebt een interne kennisbank-chatbot die per maand 200 miljoen input-tokens en 20 miljoen output-tokens verwerkt. Op Claude Sonnet kost je dat ongeveer 900 dollar per maand. Op MiMo-V2.5 kom je uit op tachtig dollar. Het verschil betaalt je AVG-functionaris voor een halve maand. En het verschil ten opzichte van Opus 4.7 zou de laptops van je hele dev-team financieren.
De ironie: dit is niet eens nieuw. We schreven eerder over DeepSeek V4 Pro die Claude evenaart voor 14 procent van de prijs en gisteren nog over hoe DeepSeek's cache-prijzen je RAG spotgoedkoop maken. Het patroon is duidelijk. Chinese open-source modellen halen het Westerse frontier-niveau in op coding en agent-taken, voor een fractie van de prijs.
Werkt het ook op Nederlands?
De model-kaart op Hugging Face noemt expliciet alleen Engels en Chinees als ondersteunde talen. In de praktijk doen modellen van deze schaal het meestal redelijk op Nederlands ook (de pre-training-data bevat onvermijdelijk wat NL-tekst), maar Xiaomi geeft je geen garantie. Een korte test op een Nederlands juridisch document kan tegenvallen, terwijl Claude Sonnet daar wel mee omgaat.
Wacht even, voordat je dit als dealbreaker afschrijft: voor pure coding-taken (waar je instructies in het Engels geeft en de output ook Engels is) speelt taal nauwelijks. Voor klantgerichte chatbots in het Nederlands is het wel relevant. Test het zelf met je eigen prompts voordat je migreert. Een uurtje op OpenRouter kost je een paar dubbeltjes en geeft je het antwoord.
De praktijkregel die we bij eerdere Chinese open-source-releases zagen: modellen van dit kaliber doen Nederlands "redelijk" voor algemene taken (samenvatten, vertalen, simpele dialoog) maar struikelen op idioom, juridisch jargon en regionale spelling. Voor productie in klantcommunicatie blijft Claude of een gefinetunede Europese variant veiliger. Hetzelfde patroon zagen we bij Qwen en bij DeepSeek. Wil je zekerheid: bouw een evaluatieset van vijftig representatieve prompts uit je eigen domein en vergelijk de output naast elkaar.
Mag een Nederlands bedrijf dit zomaar gebruiken?
Hier wordt het ingewikkelder, en dit is waar veel van de spotgoedkope-Chinese-AI-discussie spaak loopt. Drie aandachtspunten.
Ten eerste de AVG. Stuur je via de Xiaomi-API persoonsgegevens van EU-burgers naar China? Dan zit je in een derdelandtransfer zonder adequaatheidsbesluit. Dat betekent: standaard contractuele clausules, een transfer impact assessment, en een aanvulling op je verwerkersregister. De Autoriteit Persoonsgegevens schrijft hier expliciet over. Hetzelfde geldt overigens voor OpenAI als die niet via de EU-region draait, alleen ben je daar makkelijker je TIA al doorheen.
Ten tweede de AI Act. MiMo-V2.5 is een general-purpose AI-model met meer dan 10²³ FLOPs aan training-compute, dus het valt in de GPAI-categorie. Voor jou als gebruiker (downstream deployer) verandert dat weinig. Maar als je het inbouwt in een hoog-risico-toepassing (bijvoorbeeld werving en selectie, of medische triage), erf je dezelfde verplichtingen rond logging, transparantie en menselijk toezicht als bij Claude of GPT.
Ten derde: het model zelf draaien. Hier zit de echte soevereiniteits-winst. MIT-licentie plus open gewichten betekent dat je MiMo-V2.5 kunt deployen op je eigen Hetzner-cluster, op een Leaseweb-bare-metal-bak in Amsterdam, of bij een Nederlandse hoster die GPU's verhuurt. Geen byte data verlaat je infrastructuur. Voor financiële instellingen onder DNB-toezicht, voor zorgleveranciers met DPIA-verplichtingen en voor lokale overheden is dat het verschil tussen "we mogen geen AI gebruiken" en "we mogen het gebruiken mits we het zelf hosten". Wel: 310 miljard parameters draaien is geen klein bier. Reken op een rack vol H100's of een cloud-instance van een paar duizend euro per maand om vlotte inferentie te krijgen. Voor de meeste Nederlandse mkb-organisaties is dat fors. Voor een gemeente of een ziekenhuis dat anders nul AI-gebruik heeft, is het ineens een te overwegen investering.
Wat doe je hier maandag mee?
Drie concrete vervolgacties.
Open eerst je grootste kostenpost in je AI-uitgaven. Voor de meeste bedrijven die we spreken is dat een chatbot, een document-analyse-pipeline of een coding-agent voor het dev-team. Bereken wat je dezelfde workload op MiMo-V2.5 zou kosten. Je hoeft het nu niet te migreren, maar je kent het bedrag.
Maak ten tweede een lijst van de taken waar het Nederlands cruciaal is en waar Engels prima volstaat. Bij de meeste organisaties is die scheiding scherper dan je denkt. Backend-code, infra-scripts, log-analyse, code-review: allemaal Engels. Klantcommunicatie, juridische teksten, HR-flows: Nederlands. Migratie naar een goedkoper model start altijd bij de Engelse stack.
En ten derde: praat één keer met je security-officer of DPO over derdelandtransfers naar China voordat je iets in productie zet. Niet om het te vermijden, maar om te weten welke route past. Voor sommige use-cases is Xiaomi's eigen API prima (geen persoonsgegevens, alleen anonieme inputs). Voor andere wil je het model op je eigen infra draaien. Voor weer andere blijf je gewoon bij Claude. De keuze is vandaag groter dan vorige week, en dat is de echte winst van deze release.
Het verhaal van 2026 is niet "wie heeft het slimste model". Het is: hoe goed je weet welk model bij welke taak hoort, en hoeveel dat scheelt op je rekening. Xiaomi heeft de keuzelijst weer een stuk langer gemaakt.