AI en Open Source - Waarom transparantie geen luxe is
Deze blog is geschreven in het kader van Platform AI en Overheid, een initiatief gericht op verantwoorde AI-adoptie binnen de publieke sector.
Stel je voor: een ambtenaar krijgt een AI-advies over een uitkeringsaanvraag. Het systeem zegt "afwijzen". Maar waarom? Welke data zijn gebruikt? Zit er bias in? Kan de burger uitleg krijgen? In een democratische samenleving is dit geen technische vraag, maar een bestuurlijke noodzaak. Kunstmatige intelligentie kan een krachtige partner zijn voor de overheid – sneller werken, betere analyses, meer burgergericht. Maar alleen als we begrijpen hoe het werkt, kunnen verantwoorden wat het doet, en kunnen ingrijpen als het fout gaat. Open source is daarbij geen technische hobby, maar een vereiste voor transparantie, controle en vertrouwen.1
In een tijd waarin gesloten AI-systemen – black boxes van grote techbedrijven – domineren, kiezen wij voor een andere weg. Een weg die past bij onze waarden: open, inspecteerbaar, samen verbeterbaar. Dit blog legt uit waarom open source essentieel is voor overheids-AI, hoe Common Ground daarbij helpt, en waarom dit geen luxe is, maar een must.
Het Probleem met Gesloten AI: Een Black Box in de Publieke Ruimte
Gesloten AI – proprietary modellen van bedrijven als OpenAI, Google of Microsoft – is vaak een black box. Je ziet input en output, maar niet wat ertussen gebeurt.2 Voor commerciële toepassingen prima, maar voor de overheid onacceptabel. Stel: een AI adviseert over een vergunning, subsidie of handhavingsbesluit. Burgers hebben recht op uitleg, ambtenaren op inzicht, en bestuurders op verantwoording.3
De risico's zijn reëel:
- Onzichtbare modellen: Hoe werkt het precies? Welke algoritmes, welke weights?2
- Onbekende trainingsdata: Zitten er biases in van data uit andere culturen of periodes?4
- Oncontroleerbaar gedrag: Waarom deze uitkomst? Hallucinaties of fouten zijn niet te traceren.
- Juridische risico's: Besluiten moeten uitlegbaar zijn onder de Awb en EU AI Act.5
- Ethische risico's: Hoe waarborgen we eerlijkheid, non-discriminatie en menselijk toezicht?6
De rijksoverheid erkent dit: in het overheidsbrede standpunt generatieve AI (2025) wordt open source aanbevolen voor meer inzicht en transparantie.7 Gesloten systemen maken ons afhankelijk van buitenlandse vendors – denk aan de Cloud Act, waarbij Amerikaanse bedrijven data moeten delen met hun overheid.8 Voor een soevereine overheid is dat onhoudbaar.
Wat Open Source Mogelijk Maakt: Transparantie als Basis
Open source AI betekent dat broncode, modellen en idealiter trainingsdata openbaar en inspecteerbaar zijn.9 Dit levert cruciale voordelen voor de overheid:
- Inzicht in werking: Je ziet hoe het model tot conclusies komt – geen black box, maar transparant proces.10
- Controleerbaarheid: Onafhankelijke experts doorlichten op bias, fouten en ethiek.11
- Hergebruik en samenwerking: Wat één gemeente ontwikkelt, kan een ander overnemen en verbeteren – geen dubbel werk.12
- Gezamenlijke verbetering: Community vindt bugs sneller, voegt features toe – zoals bij Linux of Nextcloud.13
- Geen vendor lock-in: Controle over eigen infrastructuur, geen afhankelijkheid van commerciële partijen.14
Open source is een bestuurlijke keuze: het past bij de Wet open overheid en de Nederlandse Digitaliseringsstrategie, die open source stimuleren.1516 Het rijk pleit zelfs voor voorkeur aan open source generatieve AI voor transparantie.7
Common Ground: Het Perfecte Ecosysteem voor Open Source AI
Common Ground – het programma waarin gemeenten samenwerken aan een moderne informatiehuishouding – is dé basis voor open source AI.17 De principes passen naadloos:
- Data gescheiden van applicaties: Data in bronregisters, AI-toepassingen gebruiken API's – hergebruik zonder duplicatie.18
- Open standaarden: Interoperabiliteit als standaard – AI kan naadloos data raadplegen.19
- Open source: Code publiek eigendom – samen ontwikkelen, kennisopbouw.20
- Samenwerken: Publiek geld → publiek eigendom, minder afhankelijkheid leveranciers.20
AI werkt het beste op gedeelde, goed beschreven data (Common Ground-registers) en transparante systemen (open source). Denk aan een AI die burgers helpt met regelingen: met Common Ground-data is het accuraat, met open source controleerbaar.
Open Source en AI: Een Logische Combinatie
Open source maakt AI democratisch:
- Modellen inspecteerbaar: Zie opbouw, technieken, zwaktes.21
- Prompts reproduceerbaar: Instructies gedocumenteerd, controleerbaar.22
- Ethische kaders afdwingbaar: Bouw guardrails in voor eerlijkheid.23
- Training transparant: Weet op welke data getraind – essentieel voor bias-check.24
De EU AI Act en overheidsstandpunt benadrukken dit: voorkeur voor Europese, open source modellen.257
Vertrouwen door Ontwerp: Voor Burgers, Ambtenaren en Bestuurders
Democratische AI vraagt democratisch ontwerp:
- Burgers: Recht op uitleg (Awb), vertrouwen in processen.26
- Ambtenaren: Verantwoorden van AI-adviezen, begrijpen van tools.27
- Bestuurders: Sturen op ontwikkeling, verantwoording aan raad, ingrijpen bij problemen.28
Open source + Common Ground levert dit.
Praktisch Voorbeeld: AI in Gemeentelijke Dienstverlening
Gesloten scenario: Gemeente koopt proprietary AI voor regeling-zoeker. Werkt? Ja. Maar black box, afhankelijk van vendor, andere gemeenten beginnen opnieuw.
Open source scenario: Gemeenten ontwikkelen samen op Common Ground-basis. Code en model openbaar. Andere gemeenten hergebruiken, verbeteren. Transparant, controleerbaar, kostenefficiënt – precies wat de overheid nodig heeft.29
Kritische Vraag: Is Open Source Echt Onmisbaar?
Kunnen we met gesloten software voldoende controle houden? Ons antwoord: nee. Voor democratische AI is open source vereist – inzicht, verantwoording, samenwerking.29
Conclusie
Zonder open source geen democratische AI. Open source maakt inzicht, controle en hergebruik mogelijk. Common Ground biedt het ecosysteem. Samen vormen ze de basis voor verantwoorde, transparante AI in de overheid.
De vraag is niet óf we open source moeten gebruiken voor AI, maar hoe snel we dit implementeren – voordat we afhankelijk worden van black boxes die we niet begrijpen.
Gerelateerd: Common Ground
Componenten
Hieronder verwijzingen naar toepasbare EuroStack-componenten en gerelateerde open source tools:
- SovereignAI: AI-as-a-Service voor soevereiniteit – ideaal voor on-premise models.
- DataCommons: Federated data exchange – voor veilige data-ophaal in integraties.
- EuroOS: Open source OS voor infrastructuur – basis voor workflow engines.
- n8n: Open source workflow automation tool – voor snelle business logica en no-code workflows.
- Flowable: Open source DMN/BPMN engine – opvolger Camunda, geschikt voor complexe processen en zaakafhandeling.
- Ollama: Tool voor lokale AI-inference – draai modellen on-premise zonder cloud.
- Hugging Face: Platform voor modeldownload en hosting – repositories voor on-premise deploy.
Deze componenten en tools passen perfect bij veilige, soevereine AI-integratie in overheidscontext.
