Large Language Models

ChatGPT leest je Gmail mee en onthoudt al je eerdere gesprekken

· 8 min leestijd

Je hoeft ChatGPT niet meer te vertellen waar je gebleven was. De assistent haalt voortaan automatisch context uit je eerdere gesprekken, opgeslagen bestanden en je Gmail-inbox. Via een nieuw Sources-icoon zie je per antwoord precies welke bronnen meewogen: een chat van drie maanden geleden, een bestand uit je bibliotheek of een e-mail die gistermiddag binnenkwam. Voor iedereen die dagelijks met ChatGPT werkt is dit de update die het verschil maakt tussen een chatbot en een collega die weet waar je mee bezig bent.

Wat is er precies veranderd?

OpenAI heeft begin mei twee dingen tegelijk uitgerold. Ten eerste draait ChatGPT nu standaard op GPT-5.5 Instant, een model dat beter scoort op feitelijke nauwkeurigheid, helderheid en het doorzoeken van eerdere context. Het vervangt GPT-5.3 Instant, dat nog drie maanden beschikbaar blijft via de instellingen. Ten tweede gebruikt dat model je volledige ChatGPT-geschiedenis als werkgeheugen.

Concreet: als je drie weken geleden een marketingplan besprak en vandaag vraagt "wat waren de drie pijlers die we hadden bedacht", dan trekt ChatGPT die eerdere chat erbij. Hetzelfde geldt voor bestanden in je bibliotheek en, als je Gmail hebt gekoppeld, relevante e-mails. Het model doorzoekt je gesprekken sneller dan voorheen en hoeft minder vaak om verduidelijking te vragen.

Overigens gaat het niet alleen om tekst. GPT-5.5 Instant is ook scherper in het begrijpen van afbeeldingen, beter in STEM-vragen en slimmer in de keuze wanneer het het web op gaat. Maar de echte verandering zit in het geheugen. Waar ChatGPT voorheen begon als een leeg vel bij elk nieuw gesprek, bouwt het nu een lopend dossier op van alles wat je hebt besproken.

Hoe werkt Memory Sources?

Memory Sources is de transparantielaag bovenop dat geheugen. Onderaan elk gepersonaliseerd antwoord verschijnt een Sources-icoon. Tik erop en je ziet welke bronnen meewogen: opgeslagen herinneringen, eerdere gesprekken met tijdstempel, je custom instructions, bestanden uit je bibliotheek, en referenties uit je gekoppelde Gmail.

Denk aan een assistent die na elke zin zijn bronnen vermeldt, zoals een goede stagiair die citeert waar een getal vandaan komt. Vraag je om een update van je kwartaalcijfers en het antwoord verwijst naar een spreadsheet die je vorige maand uploadde? Dan zie je dat terug in het Sources-paneel, inclusief een directe link naar het originele gesprek.

Je kunt per bron ingrijpen. Klopt een herinnering niet meer? Verwijderen. Trekt het model een verouderd gesprek erbij? Markeren als irrelevant. Die controle is essentieel, want OpenAI geeft zelf toe dat het systeem niet altijd elke factor toont die een antwoord heeft gevormd. Niet alles is zichtbaar. Maar je hebt meer grip dan ooit, en dat is een stap in de goede richting.

Wat kost het en wie heeft toegang?

Memory Sources rolt uit naar alle consumenten-abonnementen op web, binnenkort ook op mobiel. De volledige ervaring met Gmail-integratie en bestandentoegang is beschikbaar voor Plus (ongeveer 23 euro per maand inclusief btw in Nederland) en Pro (circa 220 euro per maand). Gratis gebruikers zien het Sources-icoon bij gepersonaliseerde antwoorden, maar zonder Gmail-koppeling en bestandenbibliotheek.

Wacht even. Dat betekent dat het geheugen voor gratis gebruikers beperkt blijft tot opgeslagen herinneringen en eerdere chats. Wil je dat ChatGPT je inbox meeneemt, dan betaal je. Voor een ondernemer die al Plus heeft verandert er niets aan de factuur. Wat die 23 euro per maand oplevert is wel fundamenteel anders geworden.

Even de context: vorige week schreven we over de ChatGPT-sidebar in Excel en Google Sheets. Die functie zit in dezelfde update. OpenAI bouwt ChatGPT systematisch om van een losse chatbot naar een werkassistent die in je bestaande tools zit. Wie de kosten per abonnement wil vergelijken: we zetten alle ChatGPT-plannen naast elkaar in ons prijsoverzicht.

Waarom een privacyexpert dit eng vindt

Ontwikkelaar en AI-criticus Simon Willison testte het geheugensysteem en publiceerde wat hij vond. Via een simpele prompt ontdekte hij dat ChatGPT een uitgebreid persoonlijk profiel bijhoudt: technische interesses (Python, Rust, databases), woonplaats, kookvoorkeuren, apparaattype, zelfs een beoordeling van de kwaliteit van zijn berichten.

En tot slot een detail dat te mooi is om niet te noemen. Willison wilde een pelikanenkostuum laten genereren voor zijn hond Cleo. ChatGPT voegde ongevraagd een bordje met "Half Moon Bay" toe aan de afbeelding. De reden: eerdere gesprekken over zijn woonplaats. Hij had dat nooit gevraagd.

"Er is nu een enorm complex geheel aan extra voorwaarden dat onzichtbaar je output beïnvloedt," schreef Willison. Zijn oplossing: geheugen dat je per project aan of uit kunt zetten, niet een globaal dossier dat alles meeneemt. OpenAI heeft die optie inmiddels toegevoegd via projectgeheugen, maar die moet je zelf aanzetten.

Wilsons punt raakt iets fundamenteels. De meeste mensen hebben geen idee wat ChatGPT over hen weet. Memory Sources maakt een deel daarvan zichtbaar. Maar lang niet alles. En met Gmail erbovenop wordt het profiel alleen maar rijker.

Wat betekent dit voor je AVG-beleid?

Dit is waar het voor Nederlandse bedrijven concreet wordt. Uit onderzoek gepubliceerd door Emerce blijkt dat de helft van de Nederlandse organisaties geen AI-beleid heeft, terwijl 78 procent van de medewerkers persoonlijke AI-tools gebruikt op het werk. Bijna de helft uploadt bedrijfsdata naar publieke tools als ChatGPT, en 45 procent vertelt dat niet eens aan de werkgever.

Koppel daar nu Gmail aan en je hebt een scenario waar klantgegevens, contractdetails en interne communicatie automatisch in het geheugen van een Amerikaans AI-model belanden. Onder de AVG is dat problematisch op minstens drie punten: de verwerkingsgrondslag is onduidelijk, het dataminimalisatieprincipe is lastig te handhaven als het model zelf bepaalt welke mails relevant zijn, en de doorgifte naar de VS loopt via het EU-US Data Privacy Framework dat juridisch wankel blijft.

De Autoriteit Persoonsgegevens is actief op dit vlak. We schreven eerder over de vier alarmsignalen die de AP gaf over AI in sollicitatieprocedures. Dezelfde alertheid geldt hier: als je medewerkers hun zakelijke Gmail aan ChatGPT koppelen, verwerk je persoonsgegevens van klanten via een Amerikaans platform zonder dat je daar expliciet toestemming voor hebt.

Uit internationaal onderzoek blijkt dat 34,8 procent van wat medewerkers in ChatGPT typen gevoelige bedrijfsinformatie bevat, een stijging van 11 procent in 2023 naar ruim een derde nu. Met geheugen dat die informatie actief onthoudt en hergebruikt in toekomstige antwoorden, wordt het risico groter. Concrete stap: bespreek morgen met je team of de Gmail-koppeling aan of uit moet staan. En als je nog geen AI-beleid hebt, is dit het moment om er een te maken.

Waarom je assistent steeds vaker ja zegt

Er zit een ongemakkelijke bijwerking aan een AI die je kent. Onderzoekers van Stanford University publiceerden in maart 2026 in het tijdschrift Science dat AI-modellen de standpunten van gebruikers 49 procent vaker bevestigen dan menselijke gesprekspartners dat doen. Bij 2.400 deelnemers en elf verschillende LLM's, waaronder ChatGPT, Claude en Gemini, bleek dat de AI zelfs bij scenario's waarin de gebruiker aantoonbaar fout zat, in 51 procent van de gevallen zijn kant koos.

Een apart team van MIT en Penn State ging een stap verder. Zij lieten 38 echte gebruikers twee weken lang met vijf taalmodellen werken en publiceerden hun resultaten op ACM CHI 2026. De conclusie: het is niet de lengte van het gesprek die sycofantie versterkt, maar het gebruikersprofiel. Hoe meer het model over je weet, hoe preciezer het je gelijk geeft. Deelnemers die sycofante antwoorden kregen verschoven hun overtuiging meetbaar: 25 procent was achteraf sterker geneigd om het eigen gedrag als juist te beschouwen.

Dat is precies het mechanisme dat Memory Sources versterkt. Meer context betekent meer personalisatie, maar ook meer gerichte bevestiging van wat je al denkt. De onderzoekers noemen het effect "context rot": een langzame ophoping van verouderde voorkeuren en onbewuste bevestiging die je resultaten stukje bij beetje verslechtert, zonder dat je het doorhebt.

Dan Jurafsky, senior auteur van het Stanford-onderzoek, noemde de bevindingen "a safety issue" dat regulering en toezicht vereist. MIT-onderzoeker Shomik Jain voegde toe dat het scheiden van personalisatie en sycofantie een van de belangrijkste uitdagingen is voor de volgende generatie AI-assistenten.

Wat betekent dat voor jou? Als je ChatGPT gebruikt voor strategische beslissingen, wees je ervan bewust dat het model geneigd is om je bestaande overtuigingen te bevestigen. Vraag expliciet om tegenargumenten. Zet af en toe een tijdelijk gesprek op zonder geheugen. En als je merkt dat ChatGPT het altijd met je eens is, is dat geen compliment.

Wat kun je hier morgen mee?

Drie dingen die je deze week kunt doen.

Controleer of Memory Sources actief is. Open een gesprek in ChatGPT op web, kijk of je het Sources-icoon ziet onderaan een gepersonaliseerd antwoord. Zo niet: werk de app bij of wacht tot de uitrol jouw account bereikt. De functie rolt gefaseerd uit en de beschikbaarheid verschilt per regio.

Beslis of Gmail-koppeling bij jou past. Werk je met klantdata of gevoelige informatie? Dan is voorzichtigheid geboden, zeker zonder bedrijfsbreed AI-beleid. Gebruik je ChatGPT vooral voor eigen projecten, brainstormsessies en onderzoek? Dan kan de integratie je flink wat herhaalwerk besparen. Je vindt de instelling onder ChatGPT-instellingen, bij Connected apps.

Maak een AI-beleid als je dat nog niet hebt. De helft van de Nederlandse organisaties mist er een, blijkt uit Nederlands onderzoek. Met een geheugen dat automatisch context uit je inbox trekt wordt dat beleid urgenter dan ooit. Bepaal minimaal: welke AI-tools mogen, welke data niet gedeeld mag worden, en wie beslist over koppelingen als Gmail.

De upgrade maakt ChatGPT nuttiger dan het ooit was. Maar het maakt het ook persoonlijker dan welk softwareproduct ook. ChatGPT Plus kost 23 euro per maand en levert je nu een assistent die je kent, je mail leest en zijn bronnen toont. Die combinatie vraagt om bewuste keuzes, niet om standaardinstellingen.

Michael Groeneweg
Geschreven door Michael Groeneweg AI-consultant bij Digital Impact en oprichter van UnicornAI.nl

Michael is AI-consultant bij Digital Impact in Rotterdam en oprichter van UnicornAI.nl, waar hij AI-oplossingen en SaaS-integraties bouwt voor bedrijven. Al tien jaar ondernemer, en sinds een paar jaar weigert hij iets te doen waar geen AI in verweven zit, zakelijk noch privé, tot mild ongenoegen van zijn omgeving. Zijn reizen door de wereld zijn inmiddels een serie experimenten in wat AI wel en niet kan vanaf een terrasje in Lissabon of een treinstation in Tokio. Hij test obsessief nieuwe tools, bouwt oplossingen voor klanten, en vindt dat niemand de hype moet geloven, maar ook niemand meer kan doen alsof AI niet alles verandert. Houdt van goede koffie, lange vluchten en mensen die met AI bouwen in plaats van er alleen over praten.

Gemaakt door een mens, met AI als assistent bij research en redactie. Meer over onze werkwijze in de AI-disclosure en het redactiestatuut.