Veilige AI - Handelingskaders en de R-bak/P-bak structuur
Deze blog is nog in concept-fase en wordt mogelijk nog aangepast voor publicatie.
AI moet niet alleen technisch veilig zijn - het moet ook binnen juridische en ethische kaders blijven. Hoe zorgen we ervoor dat AI de spelregels niet overtreedt? En wat is de handelingsbevoegdheid van AI eigenlijk?
De Uitdaging: AI binnen Grenzenβ
AI zonder grenzen is gevaarlijk. Maar welke grenzen dan precies? En hoe dwing je die technisch af?
In de Nederlandse overheid kennen we de R-bak en P-bak structuur voor gegevensgebruik:
- R-bak (Registratie): Brongegevens, authentieke registraties
- P-bak (Verwerking): Afgeleide gegevens, analyses, verwerkingen
Waarom Dit Voor AI Belangrijk Isβ
AI moet:
- Weten uit welke bak het data mag halen
- Begrijpen welke privacy-regels gelden
- Binnen handelingskaders blijven
- Verantwoording kunnen afleggen
AI en de R-bak: Toegang tot Brongegevensβ
Principe: Restrictieve Toegangβ
De R-bak bevat gevoelige brondata:
- BSN-gegevens (BRP)
- FinanciΓ«le gegevens
- Medische informatie
- Strafrechtelijke gegevens
AI moet hier zeer beperkt toegang toe hebben:
β AI krijgt vrije toegang tot R-bak
β Privacy-risico
β Geen controle op gebruik
β Compliance problemen
β
AI krijgt alleen noodzakelijke data via API's
β Gepseudonimiseerd waar mogelijk
β Gelogd en geauditeerd
β Binnen privacy-kaders
Praktijkvoorbeeld: Subsidiecheckβ
Scenario: AI helpt burgers controleren of ze recht hebben op subsidie.
Onveilig:
AI β Rechtstreeks BRP
β Leest volledige burger-historie
β Kan alles zien
β Privacy-risico
Veilig:
Burger geeft toestemming
β
Applicatie vraagt specifieke gegevens op
β
R-bak geeft alleen: leeftijd, woonplaats, gezinssamenstelling
β
AI analyseert alleen deze noodzakelijke gegevens
β
AI geeft advies: wel/niet in aanmerking
AI en de P-bak: Afgeleide Gegevensβ
De P-bak is waar AI meer waarde kan toevoegen, maar ook hier gelden regels.
Wat Mag in de P-bak?β
Toegestaan:
- Statistische analyses
- Geaggregeerde cijfers
- Trends en patronen
- Geanonimiseerde datasets
Niet toegestaan:
- Herleidbare persoonlijke analyses
- Profielen zonder wettelijke grondslag
- Discriminerende classificaties
- Zwarte lijsten
AI-Verrijking met Waarborgenβ
Voorbeeld: Woonlast-analyse
# AI analyseert woonlasten per wijk
data = {
"wijk": "Centrum",
"gemiddelde_woonlasten": 1250,
"aantal_huishoudens": 450,
"trend": "stijgend"
}
# β
Geen individuele gegevens
# β
Wel inzichten voor beleid
# β
Privacy-conform
Handelingskaders: Wat Mag AI Doen?β
Laten we helder zijn over de handelingsbevoegdheid van AI.
AI Mag: Voorbereidenβ
Toegestaan:
- Conceptteksten maken
- Data samenvatten
- Analyses voorbereiden
- Opties presenteren
Voorwaarde: Altijd controle door ambtenaar
Voorbeeld:
Burger vraagt vergunning
β
AI analyseert aanvraag
β
AI genereert concept-beoordeling
β
Ambtenaar controleert en past aan
β
Ambtenaar neemt definitief besluit
AI Mag: Adviserenβ
Toegestaan:
- Aanbevelingen doen
- Risico's signaleren
- Alternatieven voorstellen
- Relevante informatie tonen
Voorwaarde: Duidelijk als "advies" gemarkeerd
Voorbeeld:
AI: "Op basis van vergelijkbare gevallen wordt meestal
optie B gekozen. Overwegingen: ..."
Ambtenaar: Leest advies
β Beoordeelt zelf
β Neemt eigen besluit
AI Mag NOOIT: Beslissenβ
Verboden:
- Zelfstandig besluiten nemen
- Burgers verplichtingen opleggen
- Rechten toekennen of ontzeggen
- Geld overmaken
- Juridisch bindende acties
Waarom niet?
- Juridisch: Besluit moet herleidbaar zijn tot ambtenaar
- Democratisch: Mens moet verantwoordelijk zijn
- Ethisch: AI heeft geen moreel kompas
- Praktisch: AI kan vergissingen maken
Technische Implementatie van Grenzenβ
Hoe dwing je dit technisch af?
1. Permission Systemβ
Role-Based Access Control (RBAC) voor AI:
AI_Assistant:
may_read:
- public_data
- anonymized_statistics
- documents_with_consent
may_not_read:
- direct_bsn_access
- financial_details_without_mask
- medical_records
may_write:
- draft_documents
- suggestions
- logs
may_not_write:
- official_decisions
- citizen_records
- financial_transactions
2. API Gateway Patternβ
Alle AI-toegang via gecontroleerde gateway:
AI Request β Gateway β Validation
β
Permission Check
β
Privacy Filter
β
Rate Limiting
β
Logging
β
Response
3. Audit Trailβ
Elke AI-actie wordt vastgelegd:
{
"timestamp": "2025-01-18T14:30:00Z",
"user": "ambtenaar@gemeente.nl",
"ai_model": "mistral-7b-v2",
"action": "subsidie_check",
"input_data": {
"age": 45,
"income_bracket": "30k-40k",
"household": "single"
},
"output": "Eligible for subsidy X",
"reasoning": "Meets criteria A, B, C",
"human_decision": "Approved",
"decision_by": "J. de Vries"
}
AI in de Kelder: On-Premise Deploymentβ
Metafoor: AI en data zitten samen in het kasteel, veilig binnen de muren.
Voordelen On-Premise AIβ
1. Geen Data-uitwisseling met Derden
- Data verlaat nooit de gemeente-infrastructuur
- Geen cloud providers met toegang
- Geen risico op datalek bij derde partij
2. Volledige Controle
- Eigen servers, eigen beheer
- Updates en wijzigingen controleren
- Uitschakelen kan altijd
3. Privacy by Design
- GDPR-compliant door design
- Geen data naar VS of andere jurisdicties
- AVG-proof
4. Geen Afhankelijkheid
- Geen abonnementen die kunnen eindigen
- Geen prijsverhogingen
- Geen vendor lock-in
De Kasteel-Analogieβ
ββββββββββββββββββββ Kasteel Gemeente ββββββββββββββββββββ
β β
β ββββββββββββββββ ββββββββββββββββ β
β β R-bak βββββββββββ AI Engine β β
β β (Brondata) β β (On-premise) β β
β ββββββββββββββββ ββββββββββββββββ β
β β β β
β ββββββββββββββββ ββββββββββββββββ β
β β P-bak β β Applications β β
β β (Analyses) β β β β
β ββββββββββββββββ ββββββββββββββββ β
β β
β π Privacy Controls π Access Logs π Firewalls β
βββββββββββββββββββββββββββββββββββββββββββββββββββββββββββ
β Alleen gecontroleerde uitwisseling
[Andere Overheden via Gestandaardiseerde API's]
Ethische Handelingsbevoegdheidβ
Techniek alleen is niet genoeg. We moeten ook ethisch nadenken.
Wanneer is AI-Ondersteuning Ethisch?β
β Ethisch verantwoord:
- AI helpt ambtenaar sneller werken
- AI voorkomt menselijke fouten (tikfouten, vergeten checks)
- AI maakt informatie toegankelijker
- Mens blijft eindverantwoordelijk
β Ethisch problematisch:
- AI vervangt menselijk oordeelsvermogen
- AI maakt beslissingen die mensen niet begrijpen
- AI discrimineert (ook als dat "statistisch klopt")
- Mensen voelen zich machteloos tegenover AI
Het Voorbeeld van Risico-Scoringβ
Problematisch geval: SyRI
Het Nederlandse SyRI-systeem werd verboden omdat:
- Geen transparantie over werking
- Geen controle voor burgers
- Mogelijke discriminatie
- Disproportionele inbreuk op privacy
Wat hadden we anders moeten doen?
β Black box systeem dat burgers "scored"
β
Transparant systeem dat:
- Ambtenaar ondersteunt met signalen
- Uitlegbaar is naar burgers
- Controlemechanismen heeft
- Proportioneel is ingezet
Kaders voor AI-Handelenβ
Laten we concrete kaders opstellen:
Kader 1: Transparantieβ
Burgers moeten weten:
- Dat AI gebruikt is
- Hoe AI is gebruikt
- Welke rol AI had
- Wie verantwoordelijk is
Praktisch:
Brief: "Deze aanvraag is mede beoordeeld met
ondersteuning van een AI-systeem. Het
definitieve besluit is genomen door
medewerker J. de Vries."
Kader 2: Proportionaliteitβ
AI alleen inzetten waar:
- Het proportioneel is
- De inbreuk op privacy minimaal is
- Er een legitiem doel is
- Er geen minder ingrijpend alternatief is
Kader 3: Menselijke Controleβ
Altijd menselijke controle bij:
- Besluiten die rechten raken
- FinanciΓ«le beslissingen
- Persoonlijke situaties
- Uitzonderingsgevallen
Kader 4: Non-Discriminatieβ
AI mag niet:
- Discrimineren op basis van beschermde kenmerken
- Bestaande ongelijkheid versterken
- Bepaalde groepen structureel benadelen
Technisch:
- Bias-testing verplicht
- Diverse trainingsdata
- Fairness metrics
- Regelmatige audits
Kritische Vraagβ
Als we AI niet inzetten om burgers door de wirwar van regels te helpen, lopen we dan niet het risico dat alleen de meest digitaal vaardigen profiteren?
Kortom, maken we de kloof niet groter als we het niet doen?
Antwoord: Dit is precies waarom we AI wΓ©l moeten inzetten - maar dan wel verantwoord, binnen kaders, en met waarborgen voor iedereen.
Conclusieβ
Goed ingerichte AI vergroot bestaanszekerheid, niet bureaucratie.
Veilige AI betekent:
- Technische waarborgen (R-bak/P-bak, API's, audit trails)
- Juridische kaders (handelingsbevoegdheid, transparantie)
- Ethische grenzen (mens beslist, geen discriminatie)
- On-premise deployment (data en AI in het kasteel)
AI mag voorbereiden en adviseren. De mens beslist.
Met deze waarborgen kunnen we AI inzetten om de overheid toegankelijker, effectiever en menselijker te maken - zonder concessies te doen aan veiligheid, privacy of democratische controle.
Volgende blog: AI Kansen voor Burgers - De regelgeving-navigator
Gerelateerd: AVG | Common Ground
