Tools & Apps

Opus 4.7 slurpt tokens, zo blijf je binnen je quota

· 6 min leestijd

Sinds Anthropic op 16 april Claude Opus 4.7 uitbracht, klinkt er in developerland één geluid boven alle benchmarkscores uit: deze versie slurpt tokens. Dezelfde prompt die op 4.6 een paar stuivers kostte, tikt nu 1 tot 1,35 keer harder aan, en als je Claude Code op Max draait zie je je sessiebudget binnen een paar grote conversaties in rook opgaan. Tijd om rustig door te nemen wat er gebeurt, wat je eraan kunt doen, en wanneer het verstandig is om Opus even met rust te laten.

Wat er onder de motorkap is veranderd

Twee dingen tegelijk. Ten eerste heeft Opus 4.7 een nieuwe tokenizer, die dezelfde tekst in iets meer stukjes knipt. Voor gewone Nederlandstalige prompts is het verschil klein, maar voor code, gestructureerde output en meertalige tekst kan het oplopen tot 35 procent meer input-tokens bij dezelfde opdracht. Ten tweede rekent Opus 4.7 nu standaard op effort-level xhigh, dat is één stap hoger dan wat 4.6 als hoogste haalde. Je krijgt daardoor meer denk-tokens die je niet direct ziet, maar wel betaalt.

Anthropic is er open over. Boris Cherny, engineering-lead van Claude Code, schreef op het launch-weekend dat 4.7 meer reasoning-tokens gebruikt en dat Anthropic daarom de rate limits van alle abonnees heeft opgehoogd. Dat helpt, maar het compenseert niet het onderliggende gegeven: voor dezelfde taak stuurt het model gemiddeld tweemaal zoveel werk terug.

Claude Code terminal op een monitor met Anthropic-referenties, API Usage Billing en een overzicht van voors en tegens van vibe coding met Claude Code
Claude Code toont standaard je API Usage Billing rechtsbovenin — handig om in de gaten te houden terwijl je aan 4.7 went.

Waarom ondernemers dit nu merken

Op Reddit en X is de toon van de eerste week niet subtiel. Claude Pro-abonnees meldden dat ze op lanceringsdag binnen drie grote vragen tegen hun limiet aanliepen. Een ontwikkelaar die een refactor liet draaien rapporteerde een sessie van ruim een uur, miljoenen tokens verbrand, met als resultaat een applicatie die zelfverzekerd kapot werd afgeleverd. GitHub rekent tot eind april zelfs 7,5 keer het normale tarief voor Opus 4.7 in Copilot. Dat is geen bug, dat is de nieuwe kostenstructuur.

Voor een mkb-team of een solo-consultant betekent dit dat het rekenwerk rond AI-abonnementen weer op tafel moet. Een workflow die op 4.6 binnen een Pro-budget paste, kan nu volstrekt onhoudbaar worden. Niet omdat het model slechter werkt, maar omdat de meter sneller loopt.

Vijf instellingen die je vandaag aanzet

De goede nieuws: je hoeft niet te wachten op een lagere prijs of een nieuwe sub-tier. Er is een stuk of vijf concrete knoppen waar je vandaag aan kunt draaien.

1. Zet de session recap uit. Claude Code activeert standaard een "away summary"-modus die bij elke sessie-start tot 1 miljoen tokens aan eerdere context opnieuw inleest. Handig als je na een week terugkomt op een grote codebase, duur als je elke ochtend een nieuwe sessie opent. Uitzetten doe je met:

/config
# scroll naar "Session recap" en zet hem op off
# of via env: CLAUDE_CODE_ENABLE_AWAY_SUMMARY=0

2. Zet je effort op high in plaats van xhigh of max. Anthropic's eigen best-practice-gids raadt xhigh aan voor complex werk, maar het verschil tussen high en xhigh is voor dagelijkse taken vaak niet te onderscheiden — het verschil in tokenverbruik is wél duidelijk zichtbaar. Max is alleen nuttig voor zeldzame, echt moeilijke puzzels, en zelfs Anthropic waarschuwt dat max bij langere agentic runs "diminishing returns" geeft en neigt naar overthinking.

/model opus
/effort high
# Of in de settings-file:
# "model": "claude-opus-4-7",
# "effort": "high"

3. Stuur repeterend werk naar Sonnet 4.6. Niet elke taak vraagt om het vlaggenschip. Formatteren, content-herschrijven, tests schrijven, code-reviews op kleinere diffs — dat zijn precies de taken waar Sonnet 4.6 genoeg voor is en waar je 3 tot 5 keer goedkoper uit bent. Schakel om binnen een sessie:

/model sonnet
# ... voor routineus werk ...
/model opus  # pas weer terug voor het zware werk

4. Schrijf je prompts explicieter. Opus 4.7 gedraagt zich anders dan zijn voorganger bij vage vragen. Waar 4.6 zelf zou invullen wat je waarschijnlijk bedoelde, vraagt 4.7 liever door of produceert meer denk-tokens om de ambiguïteit op te lossen. Die "ambiguïteitsbelasting" betaal je direct in tokens. Één ronde goed brieven scheelt in de praktijk een hele denkronde.

5. Batch je vragen. Elke nieuwe user-turn vraagt Opus 4.7 om opnieuw in z'n reasoning-loop te stappen. Drie losse vragen na elkaar zijn duurder dan één bericht met drie vragen en de juiste context erbij. Klinkt triviaal, maar op een drukke werkdag hakt het er hard in.

Wanneer Sonnet 4.6 slimmer is

Een duidelijke vuistregel helpt: zet Opus in voor werk waar de beslissing telt (architectuurkeuzes, lastige debugging, code die je een half jaar later nog moet begrijpen) en Sonnet voor werk waar doorzettingsvermogen telt (unit tests uitschrijven, documentatie, veel-op-elkaar-lijkend ref-werk). Sonnet 4.6 is op bijna alle benchmarks maar een paar punten onder 4.7, tegen een fractie van de tokenkosten. Voor inhoud-genereren van blogposts, herschrijfsessies of het opstellen van standaard e-mails is het niet de vraag of Sonnet volstaat — die vraag is al beantwoord.

In de praktijk is 4.7 dan het model dat je één keer per uur aanspreekt voor de echte denk-vragen, en Sonnet het werkpaard dat de rest van de dag met je meedraait. Dezelfde aanpak die Anthropic intern blijkbaar ook hanteert: hun eigen team schrijft "use the right tool for the right job" in de officiële release-notes, en wijst daarmee richting Sonnet voor routine-werk.

Tot slot: wat je nu al merkt

Opus 4.7 is niet slechter dan 4.6. Op twaalf van de veertien benchmarks presteert hij beter, en op complexe coding-taken zoals SWE-bench Pro springt hij van 53 naar 64 procent. Het is alleen een model dat zichzelf serieus neemt, en dat vraagt iets anders van de gebruiker dan voorheen. Wie dezelfde workflow als op 4.6 volhoudt, krijgt een boze factuur. Wie z'n instellingen aanpast en z'n prompts scherpt, krijgt er een flink stuk beter resultaat voor terug.

Anthropic heeft aangegeven dat ze in de komende weken de rate-limits opnieuw bekijken. Tot die tijd geldt: kijk één keer grondig naar je /config, verlaag je default-effort, en accepteer dat Opus voortaan een precisie-instrument is in plaats van een alleskunner. Je budget dankt je er straks voor.

Michael Groeneweg
Geschreven door Michael Groeneweg AI-consultant bij Digital Impact en oprichter van UnicornAI.nl

Michael is AI-consultant bij Digital Impact in Rotterdam en oprichter van UnicornAI.nl, waar hij AI-oplossingen en SaaS-integraties bouwt voor bedrijven. Al tien jaar ondernemer, en sinds een paar jaar weigert hij iets te doen waar geen AI in verweven zit, zakelijk noch privé, tot mild ongenoegen van zijn omgeving. Zijn reizen door de wereld zijn inmiddels een serie experimenten in wat AI wel en niet kan vanaf een terrasje in Lissabon of een treinstation in Tokio. Hij test obsessief nieuwe tools, bouwt oplossingen voor klanten, en vindt dat niemand de hype moet geloven, maar ook niemand meer kan doen alsof AI niet alles verandert. Houdt van goede koffie, lange vluchten en mensen die met AI bouwen in plaats van er alleen over praten.

Gemaakt door een mens, met AI als assistent bij research en redactie. Meer over onze werkwijze in de AI-disclosure en het redactiestatuut.