Als je in 2026 iets met AI-agents doet, ben je vrijwel zeker het acroniem MCP tegengekomen. Model Context Protocol, afgeleid van Anthropic, is in een jaar tijd uitgegroeid tot de industriestandaard voor hoe AI-agents met externe tools en data praten. Laten we uitpakken wat het is, waarom het bestaat, en wanneer je het moet gebruiken.
Het probleem dat MCP oplost
Voordat MCP bestond, had elke AI-applicatie een eigen manier om tools aan het model te koppelen. Wilde je je agent aan je database laten praten? Schrijf een custom integratie. Wilde je dezelfde database aan een andere agent koppelen? Schrijf de integratie opnieuw. Elke combinatie van client (agent) en server (tool/data) vroeg om werk.
Dat is hetzelfde probleem dat USB oploste in de jaren negentig. Voor USB had elke printer, scanner en muis een eigen connector. Na USB plug je van alles in van alles. MCP doet ditzelfde voor AI-agents en tools.
De kern van het protocol
MCP definieert drie dingen in een gestandaardiseerd formaat:
- Tools — functies die de agent mag aanroepen (bijv.
search_jira,create_file) - Resources — lees-data die de agent mag opvragen (bijv. een bestandssysteem, een kennisbank)
- Prompts — herbruikbare templates die de server aanbiedt
Een MCP-server implementeert die drie concepten. Een MCP-client (je agent) maakt er gebruik van. Ze praten via een eenvoudig JSON-RPC protocol over stdio, HTTP of WebSocket.
Een concreet voorbeeld
Stel je bouwt een agent die je helpt met klantenservice. Je hebt nodig: toegang tot je ticketsysteem (Zendesk), toegang tot je product-documentatie (Confluence), en toegang tot je codebase (GitHub).
Vóór MCP zou je drie custom integraties schrijven. Met MCP gebruik je drie bestaande servers: mcp-server-zendesk, mcp-server-confluence en mcp-server-github. Je configureert ze in je agent met een paar regels JSON en je bent klaar. Het model ziet automatisch alle tools die die servers aanbieden.
De brede ecosystemen zijn het mooie. Zoekmachines hebben honderden MCP-servers geïndexeerd voor vrijwel elke grote SaaS-tool. Slack, Notion, Linear, Jira, Figma, Stripe, je noemt het.
Zelf een MCP-server bouwen
Schrijft een eigen MCP-server is simpel. Anthropic's SDK kent implementaties in Python en TypeScript. Een minimale server in Python is ongeveer 50 regels code: je definieert tools (naam, beschrijving, input schema), implementeert de functies, en start de server.
Wanneer bouw je je eigen? Als de data of tool intern is (je bedrijfsspecifieke API, een interne database, een custom workflow). Voor alles wat publiek is, check eerst of er al een server bestaat. Waarschijnlijk wel.
Het model verandert niet
Een belangrijke nuance: MCP is een transportlaag, geen modelfeature. Het model zelf weet niet eens dat het MCP is. De client leest de tool-definities uit de MCP-server en stuurt ze in het standaard tool-use formaat naar het model. Het model doet wat het altijd al deed: kijken welke tool past bij de vraag, en die aanroepen.
Dat betekent ook dat MCP werkt met elk model dat tool use ondersteunt: Claude, GPT, Gemini, lokale modellen via LlamaIndex. Dat is bewust zo ontworpen.
Beveiliging is niet triviaal
Als je een agent toegang geeft tot MCP-servers, geef je effectief toegang tot alle tools die die servers blootstellen. Kwaadaardige servers kunnen data exfiltreren of schadelijke tools aanbieden die het model laat uitvoeren. In 2025 zagen we meerdere incidenten met prompt injection via vervuilde MCP-resources.
Daarom gelden een paar regels: gebruik alleen servers die je vertrouwt, draai lokale servers in een sandbox, en limiteer wat een agent zelfstandig mag zonder menselijke goedkeuring. Dit raakt direct aan het bredere veiligheidsverhaal rond AI-safety van moderne modellen.
Hoe begin je?
Installeer een MCP-compatibele client, zoals Claude Desktop, Claude Code, Cursor, of de OpenAI Agents SDK. Open de configuratie, voeg een MCP-server toe (bijv. @modelcontextprotocol/server-filesystem), geef het pad waar de agent mag lezen, en start je client.
Binnen vijf minuten heeft je agent toegang tot een lokale directory en kan je hem vragen bestanden te lezen, te bewerken of te zoeken. Vanaf daar schaal je op naar complexere servers. Voor een complete gids zie ons artikel over je eerste agent bouwen.
Plumbing is het nieuwe innovatie
MCP is niet glamoureus. Het is plumbing. Maar dat is precies waarom het werkt. Een stukje standaardisatie op het juiste moment is meer waard dan honderd slimme innovaties die niet compatible zijn. Voor de officiële specificatie zie de MCP-documentatie. Reken erop dat elke serieuze AI-tool in 2026 MCP-compatibel is, of er heel hard mee bezig is.