Industrie

TSMC Q1 laat zien wie echt aan de knoppen zit

· 7 min leestijd

TSMC rapporteerde gisteren hun eerste kwartaal van 2026 en de cijfers zijn, eerlijk gezegd, ronduit bizar. 35,7 miljard dollar omzet, een winstgroei van 58 procent jaar-op-jaar, en alleen al maart zag 45 procent groei, de grootste maandgroei ooit. Ik heb de persberichten, analistenrapporten en de supply chain updates doorgenomen en er is een veel interessanter verhaal dan gewoon "AI is hot."

Het verhaal is dat er in de hele AI-industrie eigenlijk maar één echte bottleneck is, en die zit niet bij OpenAI of Nvidia. Het zit in Taiwan, bij één bedrijf, in een paar gebouwen. Wie TSMC's capaciteit beheerst, beheerst het tempo van AI-ontwikkeling wereldwijd.

Waar al dat geld vandaan komt

Laten we even inzoomen op waar die 35,7 miljard vandaan komt. Vrijwel elk chip-ontwerp dat telt voor AI, de Nvidia Blackwell en Rubin GPUs, Google's TPUs, Amazon's Trainium, AMD's MI-serie, en ook de chips die in de nieuwste datacenters van Oracle en Microsoft draaien, wordt bij TSMC gemaakt. Er is geen serieus alternatief. Samsung's 3nm proces worstelt met yields, en Intel's foundry is nog steeds niet waar het wil zijn.

Het gevolg is dat TSMC zijn capex-budget voor 2026 heeft opgehoogd naar 52-56 miljard dollar, met de realistische verwachting dat het aan de bovenkant van die range uitkomt. Dat is geen groeiambitie meer, dat is pure vraagreactie. Ze kunnen het niet snel genoeg bouwen.

De CoWoS bottleneck is de echte bottleneck

Hier wordt het technisch interessant. Binnen de chip-productie zit één proces dat tegenwoordig de doorloop bepaalt, CoWoS (Chip on Wafer on Substrate). Dat is geavanceerde packaging waarmee je meerdere die's en high-bandwidth memory (HBM) op één substraat combineert. Zonder CoWoS geen moderne AI-GPU. En CoWoS is hard te schalen.

Nvidia heeft, volgens analisten, het leeuwendeel van TSMC's CoWoS-capaciteit al voor 2026 weggekaapt. TSMC groeit de CoWoS-productie met ongeveer 80 procent per jaar, maar dat is nog steeds te weinig. Voor AMD, Amazon en andere klanten die ook graag meer chips willen, is er simpelweg geen ruimte. Dat verklaart waarom je soms leest dat een bepaalde hyperscaler GPU-tekorten heeft "ondanks dat er capaciteit is" in silicon, maar zonder packaging kom je er niet.

Het is een fascinerend patroon. De echte schaarste in de AI-industrie zit niet in transistors, niet in data, maar in een heel specifieke soort plakwerk. En die plakwerkfabriek heet TSMC.

Wat betekent dit voor Europa

Voor Nederland en Europa is dit geen abstract verhaal. Bijna elke GPU in een Europees datacenter heeft een lange reis achter de rug, uit Taiwan via packaging naar Nvidia en vervolgens naar Amsterdam, Eemshaven of Frankfurt. Als die leveringen haperen, hapert de hele uitrolstrategie van Europese AI-ambities.

Tegelijk heeft Nederland een eigen bottleneck gekregen, stroom. Amsterdam zakte recent van de derde naar de vierde grootste datacentermarkt van Europa, omdat er simpelweg geen nieuwe capaciteit van 70 MW of meer mag worden aangelegd. De installed IT-load in Nederland staat op 1,14 GW, groeiend naar 1,44 GW in 2031. Dat is een groeipad dat er goed uitziet op papier, maar het legt ook een onmogelijke puzzel aan, chips uit Taiwan, stroom uit Nederland, afnemers uit heel Europa.

Ondertussen heeft Oracle een miljard dollar gecommitteerd aan Nederlandse AI-capaciteit en heeft Google 640 miljoen dollar ingestoken in Westpoort. Dat is enerzijds goed nieuws voor lokaal ecosysteem, anderzijds concentreert het capaciteit juist bij hyperscalers die al toegang hebben tot CoWoS via Nvidia. Voor kleinere Europese spelers betekent dat wachten, en vaak lang.

Waarom dit relevant is voor jouw bedrijf

Als je denkt dat dit een ver-van-mijn-bed verhaal is, denk dan nog eens na. De prijs van inference bij grote LLMs (Claude, GPT, Gemini) is direct gekoppeld aan TSMC-beschikbaarheid. Wanneer capaciteit schaars is, verhogen providers hun prijzen of zetten ze limits. Je merkt het niet altijd direct, maar het zit er wel in.

Het tweede wat meespeelt, is contextvensters. Miljoen-token contexten vragen enorme hoeveelheden geheugen-bandbreedte en rekenkracht. Dat is precies waar de CoWoS-packaging en de HBM die erop zit voor bedoeld zijn. Zonder packaging geen HBM, zonder HBM geen lange contexten tegen redelijke kosten.

Derde ding, en dit is waar het strategisch wordt, de AI Act vraagt bedrijven om transparant te zijn over hun AI-stack. Dat betekent dat je moet weten waar je modellen draaien, op welke hardware, en welke leveringsketen daarachter zit. "Bij Azure" is geen goed antwoord meer.

Hoe geopolitiek de rekening gaat opeisen

Er zit natuurlijk een olifant in de kamer. Als er iets gebeurt tussen China en Taiwan, als de Taiwan Strait onder druk komt, als er maar een klein incident is dat TSMC-productie verstoort, dan staat de hele AI-industrie stil. Dat is niet zomaar een theoretisch risico. Het is de reden dat de VS, Europa en zelfs Japan miljarden steken in eigen fabs (Intel Ohio, TSMC Arizona, Rapidus in Japan, ASML's partners in Europa).

Maar die fabs zijn op zijn vroegst in 2027-2028 productief, en zelfs dan alleen voor minder geavanceerde processen. De geavanceerde 2nm en binnenkort 1,6nm nodes blijven voorlopig in Taiwan. Als je bij een Nederlands bedrijf werkt dat afhankelijk is van AI-inferentie, is dit een risico dat op je risicoregister hoort.

Dit is geen trend, dit is de nieuwe basis

TSMC's cijfers van gisteren zijn geen piek. ASML, dat de machines levert waarmee TSMC chipjes maakt, voorspelde deze week dat de vraag zeker tot 2027 sterk blijft. Voor ondernemers en tech-leiders betekent dat twee dingen, je moet rekenen op aanhoudend schaarste aan top-tier compute, en je moet nadenken over welke delen van je AI-stack echt on-premise moeten draaien en welke je kunt uitbesteden zonder achter in de rij te eindigen.

Als je dieper wilt duiken, CNBC's analyse van de Q1-cijfers en het overzicht van de Dutch Data Center Association geven samen een goed beeld van hoe wereldwijde chipschaarste en Nederlandse stroombeperking elkaar vinden.

Michael Groeneweg
Geschreven door Michael Groeneweg AI-consultant bij Digital Impact en oprichter van UnicornAI.nl

Michael is AI-consultant bij Digital Impact in Rotterdam en oprichter van UnicornAI.nl, waar hij AI-oplossingen en SaaS-integraties bouwt voor bedrijven. Al tien jaar ondernemer, en sinds een paar jaar weigert hij iets te doen waar geen AI in verweven zit, zakelijk noch prive, tot mild ongenoegen van zijn omgeving. Zijn reizen door de wereld zijn inmiddels een serie experimenten in wat AI wel en niet kan vanaf een terrasje in Lissabon of een treinstation in Tokio. Hij test obsessief nieuwe tools, bouwt oplossingen voor klanten, en vindt dat niemand de hype moet geloven, maar ook niemand meer kan doen alsof AI niet alles verandert. Houdt van goede koffie, lange vluchten en mensen die met AI bouwen in plaats van er alleen over praten.