Dit had je een jaar geleden niet voorspeld. OpenAI, Anthropic en Google, drie bedrijven die elkaar keihard beconcurreren op elke benchmark en elk enterprise-contract, zitten ineens wekelijks aan tafel om intelligence te delen. De reden? Chinese labs als DeepSeek, Moonshot AI en MiniMax blijken op industriële schaal hun modellen te kopiëren via een techniek die adversarial distillation heet. Op 6 april maakten de drie Amerikaanse frontier labs bekend dat ze het Frontier Model Forum voor het eerst inzetten als operationeel threat-intelligence-orgaan. Dit is een kantelpunt in hoe de AI-industrie zichzelf ziet.
Wat is adversarial distillation precies
Distillation is op zich een nette techniek. Je traint een klein, goedkoop model op de outputs van een groot, duur model, zodat het leerling-model veel van het gedrag overneemt zonder dat je zelf miljarden in training hoeft te steken. Labs doen dit intern continu. Het wordt pas adversarial als je dat doet met een model van een concurrent waar je geen licentie voor hebt, via accounts die daar ook niet voor zijn bedoeld.
Anthropic publiceerde in februari 2026 een rapport waaruit bleek dat drie Chinese labs samen ongeveer 24.000 nepaccounts hadden aangemaakt en daarmee meer dan 16 miljoen gesprekken met Claude hadden gevoerd. Die volumes zijn niet per ongeluk. Elk gesprek is een trainingsvoorbeeld dat je gratis achterover drukt en waar vervolgens een concurrerend model op wordt getraind.
Welke labs zijn genoemd en wat deden ze
Anthropic noemde drie specifieke campagnes bij naam, elk met een eigen focus:
- DeepSeek voerde meer dan 150.000 gesprekken gericht op fundamentele redeneerkracht en alignment-gedrag.
- Moonshot AI voerde meer dan 3,4 miljoen gesprekken gericht op agentic reasoning en tool use.
- MiniMax spande de kroon met ruim 13 miljoen gesprekken, vooral rond agentic coding en het gebruik van tools.
Dat laatste is geen toeval. De capaciteit die deze labs het hardst proberen te reproduceren, is precies waar Westerse modellen dit jaar het meest in investeren. Agentic coding is waar de commerciële groei zit, en als je dat kunt distilleren uit Claude of GPT, sla je een enorme R&D-stap over.
Waarom het Frontier Model Forum nu pas in actie komt
Het Frontier Model Forum bestaat al sinds 2023, opgericht door OpenAI, Anthropic, Google en Microsoft. Tot april 2026 was het vooral een praatclub voor safety-commitments en beleidsoverleg richting overheden. Geen operationele organisatie, eerder een PR-vehikel voor gezamenlijke standpunten.
Dat verandert nu. Volgens Bloomberg delen de drie labs nu actief signalen over verdachte accountpatronen, ongebruikelijk grote API-volumes en fingerprints van distillation-aanvallen. Het is de eerste keer dat het forum wordt geactiveerd als threat-intelligence-netwerk tegen een concrete externe tegenstander. Dat is een fundamenteel andere modus dan policy papers schrijven.
Wat dit zegt over de Amerikaans-Chinese AI-race
Het verhaal past in een breder patroon. De schaalvoordelen van grote modellen zijn zo groot geworden dat distillation de meest kosteneffectieve manier is om bij te blijven als je niet over dezelfde compute en data beschikt. De Anthropic-Google-Broadcom-deal van begin deze maand, goed voor 3,5 gigawatt aan TPU-capaciteit in 2027, maakt die kloof alleen maar groter.
Chinese labs weten dat ze via export controls nauwelijks aan high-end GPU's kunnen komen. Distillation van Westerse modellen is dan een logische, zij het juridisch en contractueel dubieuze, uitweg. De reactie van de Amerikaanse labs suggereert dat ze het zelf net zo serieus nemen als een cyberaanval.
Consequenties voor Nederlandse developers en bedrijven
Je denkt misschien, leuk verhaal over geopolitiek, maar wat heeft dit met mij te maken. Meer dan je denkt. Drie dingen om in de gaten te houden:
- Strengere accountverificatie. Verwacht dat Anthropic en OpenAI de komende maanden hun KYC-procedures voor API-toegang aanscherpen. Als je een bedrijfsaccount opzet, rekening houden met extra stappen.
- Geo-restricties op bepaalde capabilities. Sommige modelvarianten of tool-use features kunnen beperkt worden op basis van regio of traffic-patronen. Dit raakt niet alleen Chinese gebruikers, maar ook Europese bedrijven met wereldwijde klanten.
- Impact op open-source modellen. DeepSeek publiceert gewichten openlijk. Als die gewichten deels afgeleid zijn van Claude- of GPT-outputs, krijgen bedrijven die ze commercieel inzetten een juridisch probleem dat ze nu nog niet voelen.
Voor wie agents bouwt met MCP of serieuze production-workloads heeft op de Amerikaanse modellen, is het verstandig je leveranciersmix te heroverwegen. Single-vendor lock-in is nooit comfortabel, maar in een klimaat waar API-toegang ineens een geopolitieke variabele wordt, is het ronduit risicovol.
Het speelveld is verschoven
De afgelopen jaren werd er veel gepraat over AI-samenwerking als iets dat vooral om safety ging, een soort nucleaire non-proliferatie voor algoritmes. Wat we deze week zien is iets anders. Het gaat om economische belangen en nationale technologie-soevereiniteit. De drie grootste concurrenten in de wereld werken samen omdat ze inzien dat ze een gedeeld probleem hebben dat groter is dan hun onderlinge verschillen.
Of je dat nu toejuicht of zorgwekkend vindt, het markeert het einde van het tijdperk waarin frontier AI werd gezien als een puur commerciële concurrentiestrijd. Vanaf nu is het ook een gedeelde verdedigingslinie. En dat heeft implicaties voor hoe je zelf met deze modellen werkt, plant en bouwt.