MCP wordt industriestandaard: het eerlijke verhaal over kansen en beperkingen
De Linux Foundation neemt het Model Context Protocol onder haar hoede. Wat betekent dat concreet? De voordelen, de beveiligingsrisico's, de kritiek en wat het voor jouw bedrijf verandert.
Van experiment naar fundament
Vorige week schreven we over MCP als de stille revolutie die bedrijfssoftware verbindt. Sindsdien is er iets fundamenteels veranderd: de Linux Foundation heeft het Model Context Protocol officieel onder haar hoede genomen via de nieuwe Agentic AI Foundation.
Dat klinkt als een droog persbericht. Maar de betekenis is groot. Dit artikel legt uit waarom, en vertelt daarbij het volledige verhaal. Inclusief de kritiek en de beperkingen die je nergens anders leest.
Wat er precies is gebeurd
De Linux Foundation richtte de Agentic AI Foundation (AAIF) op met drie founding projects:
- MCP (Model Context Protocol) -- gedoneerd door Anthropic
- goose -- een open-source AI agent framework, gedoneerd door Block (het bedrijf achter Square)
- AGENTS.md -- een universele standaard voor projectrichtlijnen aan AI, gedoneerd door OpenAI
De platinum leden? Amazon Web Services, Anthropic, Block, Bloomberg, Cloudflare, Google, Microsoft en OpenAI. Alle grote namen, in een ruimte.
Waarom dat zo bijzonder is: OpenAI en Anthropic zijn directe concurrenten. Dat zij samen een standaard ondersteunen, is vergelijkbaar met Apple en Samsung die afspreken om dezelfde oplaadpoort te gebruiken. Het signaal is duidelijk: de standaardenstrijd is voorbij. MCP heeft gewonnen.
De stand van zaken: 97 miljoen installaties
MCP werd eind 2024 gelanceerd. In zestien maanden groeide het naar meer dan 97 miljoen maandelijkse SDK-downloads. Er zijn inmiddels ruim 5.800 MCP-servers en 300 MCP-clients beschikbaar.
Elke grote AI-tool ondersteunt het inmiddels: Claude, ChatGPT, Gemini, GitHub Copilot, Cursor, VS Code. Je gebruikt het waarschijnlijk al zonder het te weten.
Maar populariteit is niet hetzelfde als perfectie.
Wat werkt: de echte voordelen
Einde aan de koppelingsexplosie
Zonder MCP heeft elk AI-systeem een aparte koppeling nodig voor elke tool. Tien AI-tools en tien bedrijfssystemen? Dat zijn honderd koppelingen. Met MCP bouw je tien servers, en elke AI-tool kan ze allemaal gebruiken.
Block (het fintech-bedrijf) elimineerde 340 losse koppelingen door over te stappen op MCP. Apollo, een ander techbedrijf, verlaagde de onderhoudskosten van integraties met 60%.
Geen vendor lock-in
Omdat MCP nu onder de Linux Foundation valt, controleert geen enkel bedrijf de standaard meer. Wissel je van AI-tool? Je MCP-servers blijven werken. Dat is een fundamenteel verschil met proprietary oplossingen.
Toekomstbestendigheid
De roadmap voor 2026 richt zich op enterprise-features: schaalbare sessies, SSO-integratie, audittrails en serverdetectie via standaard-URLs. Het protocol groeit mee met zakelijke behoeften.
Wat niet werkt: de eerlijke kritiek
En nu het deel dat de meeste artikelen overslaan.
Beveiliging is nog niet volwassen
Dit is het grootste pijnpunt. MCP is niet ontworpen met beveiliging als kernprioriteit. Concreet:
- Geen ingebouwde authenticatie. Het protocol zelf regelt niet wie toegang heeft tot wat. Dat moet je zelf implementeren.
- Token-diefstal risico. MCP-servers bewaren toegangstokens voor meerdere diensten. Als een server wordt gehackt, heeft de aanvaller toegang tot alles wat eraan gekoppeld is.
- Prompt injection. Kwaadwillende MCP-servers kunnen een AI-model manipuleren om ongewenste acties uit te voeren. Dit is geen theoretisch risico -- het is gedemonstreerd.
Red Hat, Veeam en meerdere beveiligingsonderzoekers hebben deze risico's gedocumenteerd. De AAIF werkt aan verbeteringen, maar het is eerlijk om te zeggen: op dit moment is MCP-beveiliging een eigen verantwoordelijkheid.
Kwaliteit van servers is wisselend
Er zijn 5.800+ MCP-servers beschikbaar. Maar zoals een Reddit-gebruiker het verwoordde: "95% ervan is rommel." De drempel om een server te publiceren is laag. De drempel om een goede, veilige server te publiceren is hoog. Vergelijk het met npm-packages in 2016: er is veel, maar je moet goed selecteren.
Context window overhead
Elke MCP-tool kost ruimte in het "geheugen" van de AI. Met twintig tools gekoppeld, zijn duizenden tokens al verbruikt voordat het gesprek begint. Garry Tan, CEO van Y Combinator, noemde dit publiekelijk een probleem.
Niet iedereen is overtuigd
Perplexity, een van de grotere AI-zoekmachines, stapte in maart 2026 intern weer over naar REST APIs. Hun reden: MCP was complexer dan nodig voor hun specifieke gebruik. Tyk, een API-bedrijf, noemde MCP "overhyped en onaf" vanwege ontbrekende versioning en debugging-tools.
De concurrentie: een stapel, geen oorlog
Een veelgestelde vraag: zijn er alternatieven voor MCP? Het antwoord is genuanceerder dan ja of nee.
Er bestaan meerdere protocollen, maar ze doen elk iets anders:
- MCP verbindt AI met tools (je CRM, je database, je e-mail)
- A2A (van Google) laat AI-agents met elkaar communiceren
- ACP (van IBM) regelt betalingen en transacties tussen agents
Dit zijn lagen die samenwerken. MCP geeft je agent "handen" om tools te gebruiken. A2A geeft je agent "collega's" om mee samen te werken. Ze zijn complementair, niet concurrerend. En inmiddels vallen zowel MCP als A2A onder dezelfde Linux Foundation.
De Europese hoek: AVG en de EU AI Act
Hier wordt het voor Nederlandse bedrijven extra relevant.
AVG-uitdagingen
Als een AI-agent via MCP toegang krijgt tot klantdata, gelden alle AVG-regels onverkort. Maar MCP-servers hebben standaard geen ingebouwde auditlogs. Je moet zelf vastleggen welke data wordt opgevraagd, door wie, en waarom.
Wanneer een Nederlandse agent een Amerikaanse MCP-server aanroept, is dat een grensoverschrijdende dataoverdracht. Daar heb je adequate overdrachtsmechanismen voor nodig.
EU AI Act
De EU AI Act gaat volledig van kracht op 2 augustus 2026. AI-agents die klantbeslissingen beinvloeden, kunnen als hoog-risico worden geclassificeerd. Het probleem: de wet gaat uit van vaste configuraties. Een agent die dynamisch nieuwe MCP-tools ontdekt en inzet, past niet netjes in dat model.
Er is een nieuw juridisch concept in opkomst: "agentic tool sovereignty" -- de vraag wie verantwoordelijk is wanneer een AI-agent autonoom tools aanroept over landsgrenzen heen. Hier is nog geen helder antwoord op.
Praktisch advies
Begin met MCP-servers die binnen de EU draaien. Implementeer een tool-register met compliance-metadata: welke server staat waar, welke data verwerkt hij, en is er een AVG-beoordeling? Dat klinkt als extra werk, maar het is precies het soort structuur dat je in de toekomst beschermt.
Wat betekent dit voor jouw bedrijf?
Laten we eerlijk zijn over wie hier vandaag baat bij heeft.
Als je al AI-tools gebruikt (Claude, ChatGPT, Copilot), profiteer je indirect al van MCP. Het is de reden dat deze tools steeds beter samenwerken met andere software.
Als je systemen wilt verbinden, is MCP de standaard geworden die het sneller en betaalbaarder maakt. In plaats van dure maatwerkkoppelingen bouw je gestandaardiseerde integraties die meebewegen met je tools.
Als je afwacht, is dat ook verdedigbaar. De beveiliging moet beter, de kwaliteit van beschikbare servers moet omhoog, en de Europese regelgeving moet worden bijgewerkt. Maar de standaard zelf staat vast. Wachten op een "betere standaard" is wachten op iets dat niet komt.
De vergelijking die het beste past: MCP is nu waar HTTPS was rond 2010. Iedereen wist dat het de standaard zou worden. De tooling was nog niet perfect. Maar bedrijven die vroeg investeerden in de juiste infrastructuur, hoefden later niet alles om te bouwen.
De balans
MCP is geen hype. Het lost een echt probleem op, wordt gesteund door de hele industrie, en valt nu onder onafhankelijk bestuur. Maar het is ook geen wondermiddel. De beveiliging is onaf, de kwaliteit van het ecosysteem is ongelijk, en de Europese regelgeving loopt achter.
Het eerlijke advies: begin klein, kies bewust welke tools je koppelt, besteed aandacht aan beveiliging en compliance, en bouw een fundament dat meegroeit.
Wil je weten hoe MCP-integraties er voor jouw specifieke systemen uitzien? Plan een vrijblijvend gesprek -- we brengen je huidige tools in kaart en laten zien wat nu al mogelijk is, en waar je beter even kunt wachten.