Als je de afgelopen maanden op een Claude Max-abonnement werkte, ken je het gevoel. Halverwege een complexe automatiseringssessie stopt Claude Code met draaien omdat je tegen je vijf-uurslimiet aanloopt. Of erger: tijdens kantooruren krijg je een gereduceerde limiet omdat het "piekuren" zijn. Vanaf vandaag is dat verleden tijd. Anthropic verdubbelt de Claude Code-limieten op alle betaalde abonnementen en schrapt de piekreductie volledig. De reden: een deal met SpaceX voor 300 megawatt aan rekenkracht.
Wat er precies verandert
Drie aanpassingen die per direct ingaan. Ten eerste: de vijf-uurslimiet voor Claude Code is verdubbeld op Pro, Max, Team en Enterprise-abonnementen. Waar je gisteren halverwege een sessie moest wachten, kun je vandaag twee keer zoveel tokens verwerken in dezelfde periode.
Ten tweede: de piekurenreductie voor Pro en Max is geschrapt. Tot nu toe kreeg je tijdens drukke uren minder capaciteit. Dat was een van de meest gehoorde klachten, vooral bij Nederlandse gebruikers die tijdens Europese kantooruren samenvielen met de Amerikaanse ochtendpiek. Die beperking is weg.
Ten derde: de API-limieten voor Claude Opus-modellen zijn "aanzienlijk" verhoogd. Exacte cijfers staan op de Anthropic-website, maar het komt erop neer dat je via de API meer requests per minuut kunt draaien dan voorheen.
Concreet: als je een always-on setup draait met nachtelijke automatiseringen, heb je nu dubbel zoveel ruimte voordat je tegen een limiet aanloopt. Voor wie regelmatig tegen het Opus-tokenverbruik aanliep, is dit de grootste verbetering in maanden.
Waar die capaciteit vandaan komt
De limietsverhoging is niet zomaar een schuifje in de software. Ze is mogelijk door een infrastructuurdeal met SpaceX. Anthropic krijgt toegang tot Colossus 1, het datacenter dat SpaceX in Memphis heeft gebouwd. Dat levert meer dan 300 megawatt aan nieuwe capaciteit op, goed voor circa 220.000 NVIDIA GPU's. Die capaciteit is binnen een maand operationeel en bedient rechtstreeks Claude Pro- en Max-abonnees.
Dezelfde Colossus-infrastructuur maakte eerder Grok 3 mogelijk. Het verschil: xAI gebruikte het om te trainen, Anthropic gebruikt het om te serveren. Meer GPU's voor inference betekent meer gelijktijdige gebruikers, hogere limieten en minder wachtrijen.
Opvallend detail: Anthropic noemt in de aankondiging dat het samen met SpaceX "meerdere gigawatts aan orbitale AI-rekencapaciteit" verkent. Datacenters in de ruimte klinkt als sciencefiction, maar het past in het patroon van techbedrijven die nu al verder kijken dan wat er op aarde beschikbaar is.
De wapenwedloop om rekenkracht
De SpaceX-deal staat niet op zichzelf. Anthropic heeft in 2026 een reeks infrastructuurcontracten getekend die het totaalplaatje laten zien van wat er nodig is om AI op schaal te draaien:
- Amazon: tot 5 gigawatt aan capaciteit, waarvan bijna 1 gigawatt eind 2026 operationeel is.
- Google en Broadcom: 5 gigawatt, beschikbaar vanaf 2027.
- Microsoft en NVIDIA: 30 miljard dollar aan Azure-capaciteit.
- Fluidstack: onderdeel van een investering van 50 miljard dollar in Amerikaanse AI-infrastructuur.
Tel het bij elkaar op en je praat over tientallen gigawatts aan geplande rekenkracht. Ter vergelijking: heel Nederland verbruikte in 2025 zo'n 12 gigawatt aan piekbelasting. Anthropic plant meer rekenkracht dan een middelgroot land aan elektriciteit gebruikt.
Wat dit betekent voor Europese klanten
Voor enterprise-klanten in gereguleerde sectoren zoals financiën en gezondheidszorg is fysieke locatie van de infrastructuur geen detail maar een vereiste. De AVG en aankomende AI Act stellen eisen aan waar data wordt verwerkt. Anthropic breidt via het Amazon-partnerschap inference-capaciteit uit naar Azië en Europa.
Daarnaast belooft Anthropic de stijging van consumentenenergiekosten door datacenters in de VS te compenseren en onderzoekt het hoe die toezegging naar andere regio's kan worden uitgebreid. Dat is een opmerkelijke stap in een branche die onder vuur ligt vanwege het energieverbruik van AI-datacenters.
Voor een Nederlands bedrijf dat naar het NEC-model kijkt om Claude breed uit te rollen, is Europese inference-capaciteit het verschil tussen "kunnen we dit" en "mogen we dit." Die eerste vraag is beantwoord. De tweede hangt af van je specifieke compliancevereisten.
Meer waarde, dezelfde prijs
De kern voor een mkb'er of zelfstandige: je betaalt hetzelfde bedrag als gisteren en krijgt het dubbele. Geen prijsverhoging, geen nieuw abonnement, geen upsell. Je bestaande Pro- of Max-plan heeft per direct meer capaciteit. Dat is zeldzaam in een markt waar AI-diensten doorgaans duurder worden.
Of het genoeg is voor een zware always-on setup hangt af van je verbruik. Opus 4.7 verbruikt meer tokens per taak dan zijn voorganger, dus de verdubbeling compenseert deels wat het nieuwe model extra kost. Maar voor de meeste gebruikers betekent het gewoon: minder onderbrekingen, langere sessies, minder wachten tijdens kantooruren.