Hoe verandert AI de beslissingen van ambtenaren?

Ambtenaren maken elke dag belangrijke beslissingen over burgers. Dit zijn beslissingen over de toekenning van bijvoorbeeld subsidies, uitkeringen of vergunningen. In de laatste jaren wordt er steeds meer gebruik gemaakt van Artificiële Intelligentie (AI) bij die beslissingen. AI, bijvoorbeeld in de vorm van algoritmen, kan ambtenaren in die beslissingen ondersteunen. AI kan ambtenaren echter ook beperken in het maken van beslissingen. De invloed van AI kan hierbij zowel positief als negatief uitpakken.

Ambtenaren vervangen door AI

Er zijn verschillende manieren waarop AI ingezet kan worden bij de beslissingen van ambtenaren. Voor de introductie van AI spraken bestuurskundigen vaak over street-level bureaucracy waar het gaat over het deel van het ambtenarenapparaat dat beslissingen neemt over individuele burgers (Chang & Brewer, 2022; Zouridis et al., 2020). Binnen de street-level bureaucracy staat centraal dat ambtenaren zelf belangrijke beslissingen maken over hoe beleid uitgevoerd wordt. Er komt geen computer of algoritme aan te pas, maar een menselijke ambtenaar maakt een beslissing op basis van contact met de burger.

De laatste jaren wordt er steeds vaker gesproken van een screen- of system-level bureaucracy (Bovens & Zouridis, 2002; Zouridis et al., 2020). Screen-level bureaucracy betekent dat een ambtenaar gebruik maakt van data en algoritmen als hulpmiddel bij het maken van beslissingen. Een voorbeeld is ‘predictive policing’ (Meijer & Wessels, 2019). Bij ‘predictive policing’ worden door algoritmen gebieden geïdentificeerd waar mogelijk misdaden gepleegd kunnen worden. Het algoritme maakt hierbij onder andere gebruik van eerdere data over misdaden in bepaalde gebieden. Ambtenaren die voor de politie werken kunnen gebruik maken van deze voorspellingen om te bepalen waar zij gaan patrouilleren. Dit gaat echter niet automatisch. Ambtenaren moeten zelf nog steeds bepalen hoe ze de informatie interpreteren en of ze deze gebruiken.

System-level bureaucracy daarentegen gaat nog een stap verder. Hierbij worden beslissingen volledig geautomatiseerd en is er heel weinig inmenging van een ambtenaar. Een voorbeeld is het automatisch berekenen en toezenden van boetes bij snelheidsovertredingen (Gritsenko & Wood, 2022). De overtreding wordt dan gemeten door een sensor, de boete wordt berekend en het bericht wordt automatisch verzonden. Een ambtenaar kan dan geheel vervangen worden door een algoritme of komt pas in actie wanneer de burger bezwaar maakt.

AI beperkt én ondersteunt

AI kan ambtenaren beperken én ondersteunen in het maken van beslissingen (Buffat, 2015). Een ambtenaar wordt bijvoorbeeld beperkt in het maken van beslissingen als deze beslissingen worden overgenomen door AI binnen ‘system-level bureaucracy’. Dit gebeurt op dit moment vooral bij taken die routinematig zijn (Marienfeldt, 2024). In de toekomst wordt dit misschien ook ingezet bij complexere taken, zoals het toekennen van vergunningen voor het verbouwen van een huis.

AI kan ook een ondersteunende functie hebben. AI kan veel informatie uit een groot aantal bronnen verwerken in beslissingen. Daarnaast biedt het nieuwe manieren, bijvoorbeeld bij machine learning, om deze informatie te vertalen tot bruikbare inzichten (Veale & Brass, 2019). Hierdoor kunnen beslissingen gemaakt worden op basis van meer kennis. Beslissingen kunnen ook op een meer gestandaardiseerde wijze worden gemaakt. Door het overnemen van routinematige taken kan het ook zijn dat een ambtenaar meer tijd krijgt voor complexe taken (Bullock, 2019; Marienfeldt, 2024). Door AI kunnen beslissingen van hogere kwaliteit zijn of efficiënter worden.

Gevaren van AI?

Het inzetten van algoritmen kan in sommige gevallen gevaarlijk zijn. Een algoritme kan bijvoorbeeld gebaseerd zijn op data waarin bepaalde vooroordelen zitten. Een voorbeeld hiervan is een algoritme dat ingezet wordt in een sollicitatieproces (Tilmes, 2022). Dit algoritme moet aanbevelen welke kandidaten wel en niet geschikt zijn voor een toekomstige functie. Als dit algoritme getraind wordt op basis van bestaande data over wie eerder wel of niet aangenomen is, kan het zijn dat er ‘bias’ in die data zit. Zo kan het zijn dat mensen in een rolstoel eerder bijvoorbeeld minder vaak werden aangenomen dan mensen die geen rolstoel gebruiken. Het algoritme leert daardoor dat mensen met een rolstoel minder vaak aangenomen worden. Als dit zich vertaalt in aanbevelingen, terwijl een rolstoel iemand eigenlijk niet minder geschikt maakt voor de functie, dan is dit een gevaar.

Een ander gevaar is dat de aanbevelingen van algoritmen klakkeloos worden overgenomen, zonder dat de ambtenaar kritisch is op wat de uitkomsten van zo’n algoritme precies betekenen (Logg et al., 2019). Dit kan echter ook andersom werken. Sommige mensen en ook ambtenaren zijn juist tegen algoritmen en leggen de adviezen te snel naast zich neer, terwijl algoritmen ook voordelen van nieuwe inzichten of standaardisatie van beslissingen kunnen bieden (Dietvorst et al., 2015).

Wetenschappers bestuderen daarom hoe we algoritmen kunnen ontwikkelen waarbij bias een kleine rol speelt (Tilmes, 2022). Zij bestuderen ook hoe ambtenaren omgaan met AI in hun werk en op welke manieren we deze reacties kunnen verbeteren (zie bijvoorbeeld Burton et al., 2020).

Conclusie

Hoe heeft AI dan invloed op de beslissingen van ambtenaren? Dat is afhankelijk van de context. In sommige gevallen kan AI simpele taken van ambtenaren overnemen waardoor ambtenaren meer tijd hebben andere taken. Soms kan AI ook zorgen voor beslissingen die efficiënter en van betere kwaliteit zijn. In andere gevallen kan AI gebruik maken van data met impliciete of expliciete vooroordelen, of maken ambtenaren op een verkeerde manier gebruik van AI. Dan brengt AI de kwaliteit van beslissingen in gevaar. In elke context moet dus zorgvuldig worden afgewogen of AI ingezet kan worden.

Hoe is dit artikel tot stand gekomen?

Dit antwoord is gereviewed door Esther Nieuwenhuizen.

Gepubliceered op: 31 Maart 2025

Citeer dit artikel

[1] Bovens, M., & Zouridis, S. (2002). From street‐level to system‐level bureaucracies: how information and communication technology is transforming administrative discretion and constitutional control. Public administration review, 62(2), 174-184. https://doi.org/10.1111/0033-3352.00168

[2] Buffat, A. (2015). Street-level bureaucracy and e-government. Public management review, 17(1), 149-161. https://doi.org/10.1080/14719037.2013.771699

[3] Bullock, J. B. (2019). Artificial intelligence, discretion, and bureaucracy. The American Review of Public Administration, 49(7), 751-761. https://doi.org/10.1177/0275074019856123

[4] Burton, J. W., Stein, M. K., & Jensen, T. B. (2020). A systematic review of algorithm aversion in augmented decision making. Journal of behavioral decision making, 33(2), 220-239. https://doi.org/10.1002/bdm.2155

[5] Chang, A., & Brewer, G. A. (2023). Street-Level bureaucracy in public administration: A systematic literature review. Public management review, 25(11), 2191-2211. https://doi.org/10.1080/14719037.2022.2065517

[6] Dietvorst, B. J., Simmons, J. P., & Massey, C. (2015). Algorithm aversion: people erroneously avoid algorithms after seeing them err. Journal of Experimental Psychology: General, 144(1), 114. https://doi.org/10.1037/xge0000033

[7] Gritsenko, D., & Wood, M. (2022). Algorithmic governance: A modes of governance approach. Regulation & Governance, 16(1), 45-62. https://doi.org/10.1111/rego.12367

[8] Logg, J. M., Minson, J. A., & Moore, D. A. (2019). Algorithm appreciation: People prefer algorithmic to human judgment. Organizational Behavior and Human Decision Processes, 151, 90-103. https://doi.org/10.1016/j.obhdp.2018.12.005

[9] Marienfeldt, J. (2024). Does digital government hollow out the essence of street‐level bureaucracy? A systematic literature review of how digital tools' foster curtailment, enablement and continuation of street‐level decision‐making. Social Policy & Administration. https://doi.org/10.1111/spol.12991

[10] Meijer, A., & Wessels, M. (2019). Predictive policing: Review of benefits and drawbacks. International Journal of Public Administration, 42(12), 1031-1039. https://doi.org/10.1080/01900692.2019.1575664

[11] Tilmes, N. (2022). Disability, fairness, and algorithmic bias in AI recruitment. Ethics and Information Technology, 24(2), 21. https://doi.org/10.1007/s10676-022-09633-2

[12] Veale, M., & Brass, I. (2019). Administration by algorithm. In K. Yeung, & M. Lodge (Eds.), Algorithmic regulation. Oxford: Oxford University Press. https://doi.org/10.1093/oso/9780198838494.003.0006

[13] Zouridis, S., Van Eck, M., & Bovens, M. (2020). Automated discretion. Discretion and the quest for controlled freedom, 313-329. https://doi.org/10.1007/978-3-030-19566-3_20

©De tekst is beschikbaar onder de licentie Creative Commons Naamsvermelding-NietCommercieel-GelijkDelen 4.0 Internationaal, er kunnen aanvullende voorwaarden van toepassing zijn. Zie de gebruiksvoorwaarden voor meer informatie.