AI in gemeenten: risico’s, beleid en controle

AI in gemeenten: risico’s, beleid en controle

Redactie WINMAG Pro

De adoptie van kunstmatige intelligentie groeit snel, ook binnen gemeentelijke organisaties. Maar vaak is dat nog op eigen initiatief, blijkt uit onderzoek van Uniserver. Dat zorgt voor problemen: de beheersing van de risico’s - met name op het vlak van datalekken en persoonsgegevens - blijft hierdoor ongecontroleerd.

Dat zorgt natuurlijk voor grote zorgen over de veiligheid van burgerdata. Is er een balans mogelijk tussen innovatie en veiligheid, wat zijn de belangrijkste knelpunten en hoe beheer je het AI-gebruik verantwoord?

Waarom gemeenten AI gebruiken

Zoals in elke sector biedt AI ook gemeenten concrete voordelen: automatisering van routinetaken, snellere analyses, hulp bij beleidsvorming, betere communicatie met burgers en ondersteuning in het sociaal domein. Volgens de AI Monitor Gemeenten 2024 experimenteren veel gemeenten al met generatieve AI, embedded AI of tekstverwerkingstoepassingen.

Toch is de volwassenheid laag: volgens een onderzoek van GemeentenNL gebruikt slechts 38 % van gemeenten AI-toepassingen, vaak voor eenvoudige taken. In de praktijk zie je dat AI vaak bottom-up wordt ingevoerd — medewerkers pakken tools op zonder dat de organisatie er structureel op is voorbereid.

Druk om snel te digitaliseren

De maatschappelijke druk om digitalere, snellere en datagedreven overheidsdiensten te leveren werkt als katalysator. Daarnaast dringt wetgeving, zoals de EU AI Act, gemeenten om nu al rekening te houden met compliance, nog vóór de formele deadline.

Maar juist in die haast zit een risico: innovaties kunnen worden uitgerold zonder dat de onderliggende beveiliging en governance voldoende is ingericht.

Onderzoek van Uniserver: signalen en risico’s

Het onderzoek van Uniserver laat zien hoeveel gemeentemedewerkers de nieuwe technologie inmiddels al gebruiken, ook zonder voorbereiding of training:
 

  • 55 % van de gemeentemedewerkers gebruikt AI-tools op eigen initiatief, zonder formeel beleid of training.
  • Slechts 55 % van gemeenten heeft beleid om AI-gebruik te kaderen, en eveneens 55 % biedt trainingen aan.
  • 90 % van IT-beslissers is bezorgd over datalekken of gebrekkige dataveiligheid.
  • 63 % zegt geen goed zicht te hebben op hoe AI-tools omgaan met burgerdata.
  • 81 % twijfelt of hun AI-gebruik voldoet aan wet- en regelgeving zoals de AI Act.

Dit schetst een beeld van goede ambities, maar zwakke realisatie - een klimaat rijp voor risico’s dus.

Typen datalekrisico’s bij AI-gebruik

Het gebruik van AI brengt enkele specifieke risico’s met zich mee op het vlak van datalekken of ongewenste dataverwerking. Hier zijn de voornaamste:

1. Invoer van gevoelige persoonsgegevens in AI-tools

Medewerkers kunnen  (vaak onbedoeld) gevoelige of burgerdata kopiëren naar generatieve AI-tools voor analyse, samenvatting of tekstgeneratie. Als die tools runnen op externe servers (in de cloud), verlaat de data de gecontroleerde omgeving van de gemeente.

2. Onzichtbaarheid en behandeling van data door AI-leveranciers

Veel commerciële AI-modellen zijn black boxes. Het is vaak onduidelijk wat er intern gebeurt met de ingevoerde data; worden ze opgeslagen, gebruikt voor doortraining, of gedeeld met derden? Als de leverancier onvoldoende transparant is, is toezicht lastig.

3. Combineren van datasets kan leiden tot re-identificatie

AI-toepassingen combineren verschillende databronnen: bijvoorbeeld onderhoudsdata, buurtgegevens, sociaaleconomische statistieken. Bij slimme kruisingen kan herleiding naar individuen (re-identificatie) plaatsvinden, zelf als de oorspronkelijke data geanonimiseerd leken te zijn.

4. Modelverstoring en informatielekken via prompts

Malafide actoren kunnen via prompt-injectie of andere aanvallen modelgedrag manipuleren, waardoor interne data blootkomen. Ook kan het model onbedoeld informatie ‘memoriseren’ die in latere sessies uitleesbaar wordt.

5. Supply chain-lekken en kwetsbaarheden

De infrastructuur rond AI (cloudplatforms, API’s, netwerkverkeer) kan fungeren als aanvalsvector. Een lek bij de leverancier of tussenpartij kan leiden tot blootstelling van gemeentelijke data, zelfs zonder dat de gemeente zelf direct is aangetast.

Vergelijkende voorbeelden en signalen

In een aantal gemeenten wordt ook al wél gewerkt aan AI beleid. In Amsterdam werd bijvoorbeeld besloten generatieve AI te verbieden voor ambtenaren, uit bezorgdheid over datalekken en desinformatie.

Er zijn dan ook genoeg rapporten die waarschuwen voor de inzet van AI. De Algemene Rekenkamer concludeerde dat van de 433 AI-systemen die bedrijven nu inzetten, ongeveer de helft nooit grondig is beoordeeld op risico’s. Slechts 5 % stond geregistreerd in het officiële algoritmeregister.

Dat er een gebrek is aan adequate registratie, blijkt ook uit het AI & Algorithmic Risks Report Netherlands. Dat gebrek zorgt op zichzelf natuurlijk ook weer voor een tekort aan toezicht op incidenten. Deze voorbeelden illustreren de fragiliteit van huidige governancepraktijken.

Waarom traditionele beveiliging niet toereikend is

Veel gemeenten vertrouwen nog op klassieke IT-beveiligingsmaatregelen: firewalls, VLAN-segmentatie, patchmanagement, encryptie in rust. Maar AI stelt aanvullende eisen:
 

  • Zero-trust-principes worden steeds belangrijker: vertrouw niets automatisch, ook niet intern netverkeer.
  • Monitoring en logging op modelniveau: welke data zijn gebruikt, wat is het pad van verwerking, welke modelversies zijn betreden?
  • Risicogebaseerde benadering: AI-systemen moeten worden ingedeeld in risiconiveaus (laag, medium, hoog) met passende mitigaties. Dat helpt niet alleen voor veiligheid, maar is ook voorgeschreven in de AI Act.
  • Continue audit en review: modellen veranderen in de loop van tijd. Wat in het begin veilig leek, kan later een risico worden.

Waar gemeenten nu staan: beleid, volwassenheid en knelpunten

Onvoldoende beleid en kaders

Ondanks de ambitie formuleren weinig gemeenten formeel beleid. Volgens AG Connect heeft slechts 32 % van gemeenten formeel beleid geformuleerd rond AI, terwijl 45 % zegt daar nog aan te werken. De AI Monitor 2024 signaleert vergelijkbare gaps: strategie en visie zijn aanwezig, maar concrete beleidskaders ontbreken. 

Beperkte AI-geletterdheid

Medewerkers beschikken vaak niet over voldoende kennis over AI, privacy of ethiek. Bij veel organisaties bestaat nog geen cultuur van bewust gebruik.

Gefragmenteerde ontwikkeling

Uit het TNO-rapport 'AI informatiemanagement-producten bij gemeenten' blijkt dat gemeenten parallel zelf AI-toepassingen ontwikkelen, met beperkte kennisdeling. Zo ontstaan inefficiënties en dubbele inspanningen, maar ook verschillen in kwaliteits- en veiligheidsniveau.

Wetgeving en compliance-afstanden

Gemeenten zijn zich grotendeels bewust van de AI Act, maar de kloof tussen kennis en implementatie is groot. Een studie van de Hanze Hogeschool stelt dat gemeenten moeite hebben om juridische capaciteit, ethische kaders en organisatorische structuur in te richten om te voldoen aan de wet.

Daarnaast verplicht de AI Act dat gemeenten AI-systemen registreren in de Europese database, risicobeoordelingen uitvoeren, transparantie leveren, menselijk toezicht waarborgen en hogere datakwaliteit garanderen.

Aanbevelingen: bouwen aan verantwoord AI-beheer

Om te voorkomen dat het enthousiasme voor AI overgaat in een ramp op privacygebied, zijn er concrete stappen die gemeenten kunnen nemen:

1. Stel een AI-governancekader op

Ontwikkel een AI-governanceframework dat helder maakt welke rollen, verantwoordelijkheden, processen en escalatieroutes gelden bij het gebruik van AI. Dit kader moet aansluiten op bestaande privacy- en beveiligingsarchitecturen. 

2. Risicoclassificatie per AI-toepassing

Voer per AI-systeem een risicoanalyse uit: welke persoonsgegevens worden verwerkt, wat zijn de gevolgen bij storingen of misbruik, wie zijn de leveranciers? Stel een categorie-indeling op (laag–hoog) en definieer afdoende mitigaties.

3. Beleid & richtlijnen + training

Ontwikkel operationele richtlijnen voor medewerkers: wat mag wel, wat niet; hoe omgaan met prompts; welke tools zijn toegestaan. Combineer dit met periodieke training, bewustmaking en controle.

4. Transparantie en verantwoording

Registreer AI-systemen in het algoritmeregister (of het daarvoor bestemde register) en lever transparantie over wat de systemen doen, welke data worden gebruikt en welke waarborgen aanwezig zijn.

5. Beveiliging op dataniveau en modelniveau

Zorg dat gegevens die in modellen worden gebruikt geanonimiseerd of gepseudonimiseerd zijn waar mogelijk. Beperk toegang tot AI-modellen, pas encryptie toe in transit en rust, en voer logging en modelmonitoring in.

6. Leveranciersmanagement

Sluit duidelijke contractuele verplichtingen met AI-leveranciers: garandeer dat data niet onbedoeld verder worden gebruikt, eis audits, controleer op beveiligingsstandaarden (ISO, SOC 2, etc.).

7. Continue audit en ethische review

Laat onafhankelijke audits uitvoeren op modelgedrag (met name bias, fairness, performance) en toets de gevolgen van AI-beslissingen ethisch. Zo bleek bijvoorbeeld in recent onderzoek in de Nederlandse publieke sector dat bias via algoritmische profilering kan optreden, zelfs als demografische data niet beschikbaar zijn.

8. Veranker AI in strategische planning

Zie AI niet als een los IT-project, maar als onderdeel van de digitale transformatie. Zorg voor verbinding met informatiemanagement, databeleid, privacy, en bestuurlijke doelen.

AI en gemeenten: balans is key

De balans tussen AI-innovatie en dataveiligheid is niet vanzelfsprekend. Binnen de Nederlandse gemeenten ontstaat de inzet van AI vaak bottom-up, met grote beleidsmatige hiaten en onduidelijke controle. Terwijl de risico’s - vooral in de vorm van datalekken - reëel én tastbaar zijn.

De komende jaren (tot uiterlijk 2026) moeten gemeenten niet alleen voldoen aan de AI Act, maar vooral interne discipline, governance en bewustzijn opbouwen. Los AI-gebruik kan leiden tot grote problemen - het is aan gemeenten zelf om dit te voorkomen.

Redactie WINMAG Pro
Door: Redactie WINMAG Pro
Redactie

Redactie WINMAG Pro

Redactie