Het was een van de grootste frustraties van werken met AI: je vertelde Claude of ChatGPT dat je vegetarisch eet en dat je kinderen Noa en Levi heten, en drie dagen later kende de assistent je weer van geen kant. Elke sessie opnieuw beginnen. Dat gaat eindelijk veranderen. Persistent memory, zoals het heet, komt deze maanden in vrijwel alle grote AI-producten op stoom. En het verandert hoe handig zo'n assistent werkelijk is.
Wat persistent memory eigenlijk is
Een normale chatbot vergeet alles na de sessie. Persistent memory is een laag die tussen jou en het model zit, en die dingen onthoudt over sessies heen. Je zegt een keer "ik werk als jurist in arbeidsrecht", en voortaan weet de AI dat, zonder dat je het elke keer opnieuw hoeft te vertellen.
Technisch is het simpeler dan het klinkt. De AI schrijft gewoon een klein notitieblokje bij over jou, en leest dat bij het begin van elk gesprek terug. Geen magisch lange context venster, geen hertrainen van het model. Meer een soort digitale post-its. Voor de techniek achter hoe groot contextvensters nu zijn, zie ons stuk over het miljoen-token tijdperk.
Wie biedt dit nu aan
ChatGPT was een van de eersten, met hun Memory-functie die je expliciet kunt beheren. Claude volgde met Projects, waar je context kunt vastleggen per project. Google's Gemini heeft nu "persoonlijke context", en Microsoft Copilot leunt zwaar op wat er al in je Microsoft-account staat.
De kwaliteit van het onthouden varieert. ChatGPT onthoudt soms te enthousiast ("vorige week vertelde je dat je kat ziek was, hoe gaat het nu?", terwijl jij dat nergens hebt gezegd). Claude is terughoudender. Gemini zit er ergens tussenin.
Wat het in de praktijk oplevert
Als het goed werkt, voelt het alsof je met een collega werkt die je al kent. Een paar concrete verschillen:
- Geen herhaalde uitleg meer over je bedrijf, je rol of je schrijfstijl
- Antwoorden die beter passen bij jouw context (dezelfde vraag krijgt een ander antwoord voor een startend ondernemer dan voor een CFO)
- Projecten waar je dagen later aan terug kunt, zonder je context opnieuw op te bouwen
Privacy-vraagtekens
De keerzijde: er ontstaat nu een uitgebreid profiel van jou bij elke AI-aanbieder die je gebruikt. Dat roept vragen op. Wat gebeurt er met die data? Wordt het gebruikt om het model te trainen? Kun je het inzien en verwijderen?
De meeste aanbieders bieden inmiddels een "memory dashboard" waarop je ziet wat er is opgeslagen en wat je kunt wissen. Dat is goed. Minder goed: de standaard staat bij veel diensten op "onthouden aan", dus er gaat behoorlijk wat data stromen voor je het in de gaten hebt. Voor meer over wat dit betekent voor AVG zie ons artikel over persoonsgegevens en AI.
Hoe je het slim instelt
Een paar praktische tips voor wie hier nu mee aan de slag gaat:
- Zet memory alleen aan op de AI-tool die je vaak gebruikt. Niet op elke assistent die je een keer probeert.
- Gebruik zakelijke/enterprise-accounts voor werk-context. Die hebben strengere privacy-garanties.
- Controleer maandelijks wat de AI over je onthoudt. Je zult verbaasd zijn hoe snel dat volloopt.
- Bij gevoelige onderwerpen (medisch, financieel, juridisch): schakel memory uit voor dat gesprek.
Waar je volgend jaar naartoe gaat
De volgende stap, die in de tweede helft van 2026 naar verwachting mainstream wordt, is dat jouw AI-assistenten context gaan delen. Dan weet Claude wat je aan ChatGPT hebt verteld, en andersom. Klinkt eng, kan ook enorm handig zijn. Het wordt een van de grote gesprekken van 2026-2027 en we zitten er bovenop.