Welke AI gebruik jij eigenlijk?
En wat financier je daarmee?
Door Bert de Jong | 13 april 2026
We zijn er inmiddels allemaal aan gewend: een AI-tool erbij pakken als je een tekst wilt schrijven, een vraag hebt of een idee wilt uitwerken. Het is snel, handig en eerlijk is eerlijk vaak verrassend goed. Maar ergens in die handige interface speelt een verhaal mee waar de meesten van ons nauwelijks bij stilstaan.
Twee bedrijven, twee keuzes
Anthropic en OpenAI zijn allebei grote Amerikaanse AI-spelers. Ze bouwen concurrerende producten. Maar eind februari kozen ze onder dezelfde druk heel bewust een andere kant.
Anthropic weigerde mee te werken aan het inzetten van zijn AI voor massa-surveillance en autonome wapensystemen. OpenAI maakte diezelfde nacht bekend wél een samenwerking met het Pentagon aan te gaan. Twee bedrijven, dezelfde druk, twee totaal verschillende keuzes. Zo leek het tenminste.
Want het verhaal van OpenAI is niet zo zwart-wit als het in eerste instantie leek. OpenAI stelde dat hun overeenkomst dezelfde rode lijnen bevat als die waar Anthropic voor vocht. Toch volgde forse publieke kritiek, paste OpenAI het contract aan, en gaf CEO Sam Altman toe dat het er ‘opportunistisch en slordig’ uitzag.
Maar ook het beeld van Anthropic als onkreukbare principeheld verdient nuancering. Claude draait al ingebouwd in het Palantir Maven-systeem van het Amerikaanse leger. En diezelfde week dat Anthropic zo nadrukkelijk zijn grenzen trok, schrapte het bedrijf stilletjes een kernbelofte over veiligheidsgaranties. Volksheld of hypocriet? Het antwoord is ingewikkelder dan beide kampen willen toegeven.
De kern is eigenlijk simpel: de vraag ‘welk AI-model gebruik jij?’ is minder relevant dan de vraag welke digitale afhankelijkheden je als organisatie bewust wilt aangaan. En die vraag is veel breder dan AI alleen.
Maar hoe zit het met Microsoft?
Het debat over OpenAI en Anthropic trekt veel aandacht, maar de meeste organisaties, ook in de non-profit sector, gebruiken helemaal geen AI van deze bedrijven als hun primaire digitale infrastructuur. Ze gebruiken Microsoft. Maar ook Microsoft slaat je data op in Amerika.
Dat dit geen abstracte zorg is, bleek in mei 2025. Op last van de Amerikaanse overheid blokkeerde Microsoft de e-mailtoegang van de hoofdaanklager van het Internationaal Strafhof (ICC) in Den Haag, zonder rechterlijk bevel, zonder bezwaarmogelijkheid. De aanleiding? Amerikaanse sancties tegen het ICC, nadat het hof een arrestatiebevel had uitgevaardigd tegen de Israëlische premier Netanyahu. Microsoft had eerder beloofd juridisch verzet te bieden als de VS toegang tot Europese data zou eisen. Die belofte bleek, puntje bij paaltje, een mooie blogpost.
Het roept een ongemakkelijke vraag op voor elke Nederlandse organisatie: als Trump morgen besluit dat jouw organisatie hem niet bevalt, en jij draait op Microsoft, wat dan? De Tweede Kamer, Nederlandse gemeenten, het Rode Kruis, een grote goede doelen organisatie: allemaal afhankelijk van een infrastructuur die uiteindelijk beweegt op het ritme van Washington.
En de platforms die we dagelijks gebruiken?
De keuze voor een AI-tool staat niet op zichzelf. Wie nadenkt over de ethische kant van zijn digitale gereedschapskist, kan moeilijk om social media heen. De meeste organisaties zijn actief op platforms van Elon Musk, Mark Zuckerberg of Sundar Pichai, CEO’s die bewust ontwerpen voor verslaving, wier algoritmen aantoonbaar bijdragen aan een ongezond zelfbeeld, zeker bij jongeren. En ook hun datacenters staan in Amerika.
Waarom zijn we dan zo selectief in onze verontwaardiging? Rutger Bregman riep in de NRC op tot een QuitGPT-boycot, en zijn punt is begrijpelijk: iedere abonnementsbetaling is een stemming. Maar diezelfde logica geldt ook voor het bedrijfsprofiel op LinkedIn, de donateurswerving via Meta en de nieuwsbrief via Mailchimp. Als we die vraag serieus nemen, gaat het al snel niet meer over welk AI-model je gebruikt, maar over welke digitale afhankelijkheden we als organisatie eigenlijk accepteren en welke niet.
Hoe maak je als organisatie een ‘juiste’ keuze?
Er is geen perfecte optie. Mistral is het enige serieuze Europese AI-alternatief, maar kwalitatief nog niet op hetzelfde niveau. Claude is mijns inziens beter dan chatGPT, maar slaat data ook op in Amerika. Het Chinese Qwen draait volledig lokaal – geen abonnement, geen toezicht – maar heeft daardoor ook geen enkele vangrail meer: geen moderatie, geen verantwoordelijk bedrijf om op aan te spreken. En ook buiten AI geldt: wie niet precies mee wil bewegen met de geopolitieke koers van de VS, moet een plan B hebben.
Wat je als organisatie wél kunt doen, is bewuster omgaan met de keuzes die je al maakt. Dat begint niet bij AI, maar eerder. Een paar vragen die de moeite waard zijn om te stellen:
Welke tools zijn voor ons bedrijfskritisch, en welke zijn dat niet? Kritische systemen zoals klantdata, financiën en interne communicatie — verdienen een andere risicoafweging dan een chatbot die je helpt een tekst te schrijven.
Wat zijn onze rode lijnen? Misschien zijn die grenzen niet hard te trekken. Maar het stellen van de vraag is al waardevol. Een organisatie die bewust heeft nagedacht over haar positie, staat sterker in het gesprek met leveranciers en donors.
Welke afhankelijkheden accepteren we, en waarom? De Microsoft-kwestie laat zien dat digitale afhankelijkheid soms pas zichtbaar wordt als het misgaat. Weten waar je kwetsbaar bent is de eerste stap naar een weloverwogen keuze.
De vragen die overblijven
Kunnen we als Europese gebruikers eigenlijk wel echt kiezen? Of zijn we afhankelijk van een markt die volledig door Amerikaanse partijen wordt gedomineerd, hoe die ook politiek gepositioneerd zijn?
En misschien de meest ongemakkelijke vraag: in hoeverre zijn we bereid kwaliteit en gemak in te wisselen voor principes? Of omgekeerd: wanneer wordt gemak een morele keuze? Dit zijn geen vragen met een makkelijk antwoord. Maar het lijkt me de moeite waard om ze te stellen, hardop, ook op de werkvloer.
Een keer verder praten over AI?
We denken graag met je mee!