Tutorials

Zo schrijf je prompts die echt werken

· 6 min leestijd

Iedereen die met AI werkt beweert ergens wel eens prompt engineering te doen. In de praktijk komt dat vaak neer op wat hopen, wat herformuleren en duimen draaien. Dat kan echt beter. Na honderden gebruiksmomenten met verschillende modellen heb ik een paar patronen gedestilleerd die betrouwbaar het verschil maken tussen een middelmatig en een uitstekend resultaat.

Wat een prompt eigenlijk is

Een prompt is niet een vraag, het is een specificatie. Je vertelt het model wat het moet doen, met welke context, in welk formaat, en binnen welke grenzen. Hoe meer van die dingen je expliciet maakt, hoe minder het model hoeft te raden. De meeste tegenvallende antwoorden komen niet doordat het model slecht is, maar doordat de prompt ambigu was.

Test dit eens: geef een collega dezelfde prompt die je aan het model gaf, zonder verdere context. Snapt de collega wat je wil? Zo niet, dan snapt het model het ook niet.

Structuur boven creativiteit

De beste prompts zien er eentonig uit. Dat is een feature, geen bug. Een bruikbare structuur:

  1. Rol. Wie is het model? (Bijv. een senior developer, een editor)
  2. Taak. Wat moet het doen? Eén zin, concreet.
  3. Context. Achtergrondinformatie die nodig is om de taak goed uit te voeren.
  4. Input. De data waarop het model moet werken.
  5. Output-eisen. Formaat, lengte, toon, wat juist niet erin moet.
  6. Voorbeeld. Eén of twee demonstraties van het gewenste resultaat (optioneel maar krachtig).

In die volgorde. Rol voorop, eisen en voorbeeld achteraan. Dat is de volgorde waarin het model het leest en onthoudt.

Wees expliciet over wat je niet wil

Vertel het model niet alleen wat het moet doen, maar ook wat het moet vermijden. Dat klinkt onnozel maar werkt. Bijvoorbeeld: Schrijf een productomschrijving, gebruik geen superlatieven, geen woorden als innovatief of revolutionair, en gebruik geen hype-taal.

Modellen zijn getraind op heel veel marketingtekst, dus als je niets zegt, krijg je standaard marketingtoon. Door expliciet te verbieden wat je niet wil, dwing je het model naar betere keuzes.

Voorbeelden zijn goud

Eén goed voorbeeld zegt meer dan drie paragrafen uitleg. Geef het model één input en één gewenste output, en het patroon wordt vrijwel perfect gevolgd. Dat heet few-shot prompting en het is het beste gratis instrument dat je hebt.

Belangrijk: zorg dat je voorbeeld klopt met je eisen. Een half goed voorbeeld leidt tot halfgoede output. Een tegenstrijdig voorbeeld is erger dan geen voorbeeld.

Laat het model denken

Voor complexe taken werkt chain of thought: vraag het model expliciet om eerst zijn redenering uit te schrijven voordat het een antwoord geeft. Een simpele toevoeging als denk stap voor stap, schrijf je redenering uit, en geef dan pas het antwoord verhoogt de kwaliteit meetbaar.

Moderne modellen kunnen dit ook verborgen doen (thinking mode), maar zelfs dan helpt het om het expliciet te maken in de prompt.

Formaat-trucs die werken

Wil je gegarandeerd gestructureerde output? Geef het model een template of vraag om JSON met een expliciet schema. Voor Claude specifiek werkt XML-tags ook uitstekend: wrap context in <context>, input in <input>, en vraag output in <output>. Het model is getraind om die structuur te respecteren.

Voor consumptie door andere code is JSON met een JSON-schema de gouden standaard. Moderne APIs ondersteunen structured output native, wat handiger is dan achteraf parsen.

Test meetbaar, niet op gevoel

Een prompt die in één voorbeeld werkt, werkt vaak niet op tien voorbeelden. Bouw een evaluatieset van 20-50 inputs met de gewenste output. Run je prompt erop, meet wat er fout gaat, pas aan. Dat is het verschil tussen prompt engineering en prompt-prutsen.

Dit wordt extra belangrijk als je prompts in productie zet. Eén aanpassing die op drie voorbeelden beter lijkt, kan op honderd voorbeelden slechter zijn.

Iteratie is geen gevaar

Je eerste prompt werkt zelden optimaal. Dat is geen falen, dat is het proces. Bouw een workflow waarin prompt-iteratie goedkoop is: versioning, A/B-tests, en evaluatiesets. Voor meer praktische setup zie ons artikel over een agent bouwen, dat bouwt op deze fundamenten verder.

Wat je morgen anders doet

Ga terug naar de vijf prompts die je deze week gebruikte. Voeg aan elke één ding toe: een expliciete rol, een concreet verbod, of een voorbeeld. Kijk naar het resultaat. Negen van de tien keer is het meetbaar beter en heb je geen duurder model nodig. Voor een dieper duik in systematiek zie de officiële prompt engineering gids van Anthropic.

Michael Groeneweg
Geschreven door Michael Groeneweg AI-consultant bij Digital Impact en oprichter van UnicornAI.nl

Michael is AI-consultant bij Digital Impact in Rotterdam en oprichter van UnicornAI.nl, waar hij AI-oplossingen en SaaS-integraties bouwt voor bedrijven. Al tien jaar ondernemer, en sinds een paar jaar weigert hij iets te doen waar geen AI in verweven zit, zakelijk noch prive, tot mild ongenoegen van zijn omgeving. Zijn reizen door de wereld zijn inmiddels een serie experimenten in wat AI wel en niet kan vanaf een terrasje in Lissabon of een treinstation in Tokio. Hij test obsessief nieuwe tools, bouwt oplossingen voor klanten, en vindt dat niemand de hype moet geloven, maar ook niemand meer kan doen alsof AI niet alles verandert. Houdt van goede koffie, lange vluchten en mensen die met AI bouwen in plaats van er alleen over praten.