Mira Murati's Thinking Machines Lab heeft een meerjarige Google Cloud-deal getekend ter waarde van enkele miljarden dollars. Haar bedrijf krijgt als een van de eerste toegang tot Nvidia's nieuwste GB300-systemen, die twee keer zo snel trainen en serveren als de vorige generatie. Het is de eerste cloudpartner van de startup; eerder had Thinking Machines alleen een rechtstreekse chipdeal met Nvidia. Voor Nederlandse ondernemers en consultants die nadenken over AI-strategie is het signaal belangrijker dan het prijskaartje. Zelfs een frontier-lab met een waardering van twaalf miljard dollar bouwt geen eigen GPU-cluster, maar huurt.
Wat er precies is afgesproken
De overeenkomst is volgens TechCrunch in de single-digit miljarden dollars en richt zich op reinforcement-learning-workloads. Thinking Machines gebruikt die compute om Tinker te trainen, hun tool waarmee klanten eigen frontier-modellen kunnen bouwen. Google levert naast de GB300-racks ook de omringende infrastructuur: opslag, Kubernetes, databases. Myle Ott, medeoprichter van het lab, laat in de aankondiging optekenen dat Google Cloud hen op recordtempo draaiend heeft gekregen met de betrouwbaarheid die ze eisen.
De deal staat niet op zichzelf. Anthropic trok deze week een streep onder een vergelijkbare afspraak met Amazon, met tot 25 miljard dollar aan investeringen en 5 gigawatt aan rekenkracht. Google verankerde eerder een TPU-partnership met datzelfde Anthropic via Broadcom. Wat je nu ziet, is dat elk frontier-lab parallelle compute-contracten afsluit met meerdere hyperscalers, en dat hyperscalers op hun beurt labs aan zich binden voordat de schaarste verder oploopt.
Waarom zelfs Murati niet bouwt maar huurt
Thinking Machines haalde in februari 2025 twee miljard dollar op in een seed-ronde die het bedrijf op twaalf miljard waardeerde. Dat is meer dan genoeg om een eigen datacenter te beginnen. Toch doet het lab dat niet, en daar zit de les. Compute-schaal is een lopende kostenpost, geen bezit. Het trainen van een frontier-model gebruikt de capaciteit enkele maanden; daarna verschuift de vraag richting inference. Een eigen fabriek laat hardware leegstaan tussen trainingsronden door, terwijl een clouddeal met de vraag meeschaalt.
Daar komt het kapitaalrisico bij. Nvidia's GB300 NVL72 is nu nog de top, maar de Vera Rubin-architectuur staat al klaar voor 2027. Een lab dat zelf miljarden in GB300-racks stopt, heeft een afgeschreven asset voordat het model af is. Door in te huren schuift Thinking Machines dat risico door naar Google, die het op zijn beurt spreidt over meerdere klanten. Het is dezelfde logica waarmee autofabrikanten leasen in plaats van kopen.
Wat GB300 in de praktijk levert
De GB300 NVL72 bundelt 72 Blackwell Ultra GPU's en 36 Grace CPU's in één vloeistofgekoelde rack. Nvidia claimt anderhalf keer zoveel dichte FP4 tensor-FLOPS en twee keer zoveel attention-doorvoer vergeleken met de vorige Blackwell-lijn. Vertaald naar de praktijk: redeneermodellen als Claude Opus 4.7 en GPT-5.4 verbruiken tijdens inference bergen tokens, en deze chip is specifiek ontworpen om dat efficiënter te doen. Voor Thinking Machines, dat reinforcement learning gebruikt om Tinker te leren hoe je modellen bouwt, is dat verschil geen detail maar een multiplier op de researchsnelheid.
Voor Nederlandse bedrijven is compute een rekening, geen bezit
In de consultancy-praktijk waarin ik werk, zien we regelmatig Nederlandse bedrijven die zich afvragen of ze iets met AI moeten bouwen op eigen infrastructuur. Die vraag is bijna altijd een verkeerd gesteld probleem. Als Mira Murati het niet rendabel vindt om twaalf miljard dollar in eigen GPU-racks te stoppen, dan heeft een Nederlandse mkb'er of middelgrote onderneming daar zeker geen betere business case voor.
De juiste vraag is niet welke chips je inhuurt, maar welke workflows en skills je opbouwt bovenop de compute die je elders afneemt. De waarde zit niet in het bezit van een GB300-rack, maar in de integratie met CRM, CMS en ERP, in de kwaliteit van je promptbibliotheek en in de governance rondom modelkeuze. Dat is precies waar veel NL-organisaties blijven steken. AI draait naast het werkproces in plaats van erin, en elke afdeling bouwt dezelfde promptversies opnieuw.
Reken het concreet door. Een Nederlandse scale-up met dertig medewerkers die Claude Pro afneemt (ruim 20 euro per persoon per maand) besteedt ongeveer 7.200 euro per jaar aan modeltoegang. Een enkele GB300-rack kost enkele miljoenen. De rekensom is triviaal: elke euro die een NL-bedrijf aan eigen GPU-infrastructuur uitgeeft voordat het een complete adoptie-strategie heeft staan, is verbrand geld.
Wat dit betekent voor de AI-race
Meerdere lagen van dezelfde beweging komen nu bijeen. Anthropic en OpenAI spreken met Amazon en Microsoft over 25 tot 100 miljard dollar aan infrastructuur-commitments; prijzen van de grote modellen stabiliseren terwijl capaciteit schaars blijft; en de EU AI Act vraagt binnenkort van GPAI-leveranciers expliciete registratie. Voor Nederlandse organisaties betekent dat vooral één ding: niet in de race stappen om zelf modellen te trainen, maar haast maken met de adoptie-laag bovenop de modellen die anderen wel trainen. De Thinking Machines-deal is een flink duwtje in exact die richting.