AI Uitleg

Thinking mode (redeneren)

Een instelling waarbij het AI-model eerst uitgebreid nadenkt voor het antwoordt, wat kwaliteit verhoogt bij complexe taken.

Thinking mode, ook wel reasoning mode of extended thinking, is een instelling waarbij een taalmodel eerst uitgebreid nadenkt voor het antwoord geeft. Het produceert interne redeneer-stappen, meestal niet zichtbaar voor jou, waarna het op basis daarvan een antwoord formuleert.

Het verschil met een standaard-prompt: een gewoon model begint direct met het antwoord. Een thinking-mode-model kan eerst honderden tot duizenden "gedachte-tokens" produceren. Trager en duurder, maar flink betere kwaliteit op redeneer-intensieve taken zoals wiskunde, logica, code en complexe analyses.

Hoe het werkt

Thinking mode is in essentie gestructureerde chain-of-thought. Het model wordt getraind om:

  1. Eerst het probleem op te delen in deelstappen
  2. Elke stap uit te werken, ook de fouten
  3. Bevindingen te controleren tegen de oorspronkelijke vraag
  4. Pas daarna een definitief antwoord te geven

De uitkomst is vaak kwalitatief beter, maar het kost meer tokens en dus meer geld. Een taak die normaal 500 tokens kostte, kan in thinking mode 5.000 tokens kosten.

Wie heeft welke versie?

  • OpenAI o1 (september 2024) was de eerste commerciele reasoning-model. Geen zichtbare chain-of-thought, wel merkbaar betere wiskunde-prestaties.
  • OpenAI o3 (april 2025) en o4-mini volgden als opvolgers, met meer tools en agentic gebruik.
  • Claude Opus 4 met extended thinking (februari 2025) — hier kun je het aantal "thinking tokens" zelf instellen: van "low" (snel) tot "max" (zware klus).
  • Gemini 2.5 Pro met Thinking mode — Google's variant, geintegreerd in 2025.
  • DeepSeek R1 (januari 2025) maakte thinking mode open source — een enorme release die het hele veld verschoof.
  • Grok 4 is standaard reasoning-heavy.

Wanneer heeft het nut?

Thinking mode loont bij:

  • Wiskunde en logica. AIME-scores gingen van ~20% naar 95+% door thinking mode.
  • Code-review en bugfixing. Het model overweegt meer edge cases.
  • Strategische beslissingen. "Wat zou je doen als X gebeurt" met veel variabelen.
  • Onderzoek. Claim-verificatie, tegenargumenten bedenken, zwakke plekken in plannen vinden.

Het loont niet bij simpele taken: samenvatten, herschrijven, vertalen, simpele Q&A. De extra tokens zijn dan pure kosten zonder kwaliteitswinst.

Zichtbaar of verborgen denken?

Hier zit een interessant verschil tussen providers:

  • OpenAI verbergt de chain-of-thought bij o1 en o3. Je ziet alleen het eindantwoord. OpenAI zegt: veiligheid (om "jailbreak"-patronen niet te leren) en competitief voordeel.
  • Anthropic laat de extended thinking zien als de ontwikkelaar dat wil. Je kunt letterlijk meekijken hoe Claude redeneert.
  • DeepSeek en Qwen laten thinking zien, wat transparantie maar ook jailbreakability verhoogt.

Voor technische gebruikers is zichtbaar denken een voordeel: je kunt zien waar het mis gaat en je prompt aanpassen.

Grenzen en valkuilen

  • Niet alles wordt beter. Een Apple-paper uit 2025 liet zien dat thinking mode op bepaalde taken juist slechter presteert dan kortere, directere prompts.
  • Token-kosten lopen op. Plan je budget als je thinking mode op productie wil draaien.
  • Latency. Een thinking-antwoord duurt soms 30 seconden tot enkele minuten. Voor realtime-chat te traag, voor batch-analyse prima.
  • Overdenken. Het model kan zichzelf in een cirkel praten en simpele vragen onnodig complex maken.

Thinking mode is waarschijnlijk de grootste kwaliteitsverbetering van de laatste twee jaar in LLMs. Voor iedereen die serieus met AI werkt, is het de default-keuze geworden voor alles wat meer dan een simpele tekstgeneratie vraagt.

← Terug naar alle termen