Wat zijn de vooruitzichten voor AI en Wikipedia?

Online platforms zoals Wikipedia bevinden zich op dit moment op een cruciaal kruispunt: AI biedt enorme mogelijkheden voor de ontwikkeling en verbetering van Wikipedia, maar het heeft ook grote risico's. Door effectief gebruik te maken van AI-tools kan Wikipedia de kwaliteit van artikelen, vertalingen en toegankelijkheid verbeteren. Maar er zijn ook risico’s die aandacht vragen: verkeerde informatie, vooringenomenheid, verlies van menselijke redactionele input, de illusie van consensus en een verminderde betrokkenheid binnen de community. Om de voordelen van AI te benutten en de nadelen te minimaliseren, is een gebalanceerde aanpak nodig, waarbij we AI met menselijk toezicht combineren.

Kansen

  1. AI kan Wikipedia-artikelen beter maken.
  • AI-tools kunnen je helpen met het schrijven, bewerken en controleren van artikelen, waardoor informatie toegankelijker en consistenter wordt.
  • Met AI-vertaalsoftware kan het wereldwijde bereik van Wikipedia vergroot worden en het kan bijdragen aan meer inclusiviteit.

2. Nieuwe bijdragers ondersteunen:

  • AI kan nieuwe bijdragers helpen met automatische suggesties, waardoor meedoen makkelijker wordt en de diversiteit in deelname toeneemt.

Uitdagingen

  1. Vooringenomenheid en over-standaardisatie van narratieven: LLM's kunnen vooroordelen voortzetten of minderheidsstandpunten marginaliseren (Burton et al., 2024).
  2. Misinformatie en kwaliteitscontrole: AI-tools hebben geen inherent vermogen tot het controleren van feiten, waardoor het risico bestaat dat fouten worden verspreid (Yasseri, 2025). Geautomatiseerde bewerkingen of het genereren van content zonder strikt toezicht kunnen de geloofwaardigheid van Wikipedia in gevaar brengen.
  3. Effect op de community: Een te grote afhankelijkheid van AI kan leiden tot verminderde menselijke redactionele betrokkenheid, waardoor het samenwerkingsgevoel minder kan worden (Cui & Yasseri, 2024). Ook kunnen vrijwilligers zich buitengesloten voelen als AI de taken overneemt die zij normaal doen.

Waar moeten we heen: Een gebalanceerde aanpak

  1. Versterken van Mens-AI samenwerking: Gebruik AI als een hulpmiddel om te assisteren, niet om menselijke redacteuren te vervangen (Tsvetkova et al., 2024). AI kan helpen met repetitieve taken terwijl wij mensen zorgen voor nuance, context en ethische overwegingen. AI kan zelfs worden ingezet om overleg en gesprekken tussen vrijwilligers te ondersteunen (Traeger et al., 2020). Hiervoor is het essentieel om transparante AI-modellen te gebruiken, waarvan we weten welke data gebruikt is en waarvan we kunnen uitleggen hoe beslissingen worden gemaakt. Ook moeten deze modellen zorgvuldig ontworpen zijn en moeten de taken goed verdeeld worden.
  2. Ontwikkelen van AI-bestendige veiligheidsmaatregelen: Wikipedia kan robuuste beoordelingsmechanismen implementeren om bijdragen van AI te controleren. Duidelijke richtlijnen voor het integreren van AI-output in Wikipedia zijn belangrijk om de kwaliteit en neutraliteit te bewaren. Wikipedia is beschikbaar in veel talen, en veel versies hebben lokale mechanismen om bijdragen van eenvoudige bots, nieuwe gebruikers, etc., te monitoren. Dit zou uitgebreid kunnen worden om bijdragen die gebruik maken van AI, met name grote taalmodellen, te dekken. Anders lopen we het risico te maken te krijgen met de illusie van consensus waar geen consensus is (Burton et al., 2024).
  3. Verbeteren van digitale geletterdheid: Help gebruikers om AI-gegenereerde content kritisch te kunnen beoordelen. Publieke educatie over de werking en beperkingen van AI zal het risico op misinformatie verminderen (Yasseri, 2025). Voor iemand die bekend is met hoe generatieve AI werkt, is het triviaal dat de tekst geproduceerd door grote taalmodellen "verzonnen" is en dat er (op dit moment) geen garantie is dat de gegenereerde tekst feitelijk correct is. Een typische Wikipedia-redacteur weet dit misschien niet. Een typische Wikipedia-lezer weet dit hoogstwaarschijnlijk niet. Het bevorderen van digitale geletterdheid kan helpen om sommige van deze risico's te verminderen.

De toekomst

AI kan veel veranderen voor Wikipedia, maar het moet zorgvuldig worden ingezet om trouw te blijven aan de missie om vrije, neutrale en gevarieerde informatie te bieden. Door mensen centraal te stellen en problemen zoals vooringenomenheid, misinformatie en de impact op de gemeenschap aan te pakken, kan Wikipedia een wereldwijde bron van samenwerking en kennis blijven in het tijdperk van AI.

Hoe is dit artikel tot stand gekomen?

Dit antwoord is gereviewed door Dong Nguyen

Gepubliceered op: 31 Maart 2025

Citeer dit artikel

[1] Burton, J. W., Lopez-Lopez, E., Hechtlinger, S., Rahwan, Z., Aeschbach, S., Bakker, M. A., ... & Hertwig, R. (2024). How large language models can reshape collective intelligence. Nature Human Behaviour, 1-13. https://doi.org/10.1038/s41562-024-01959-9

[2] Cui, H., & Yasseri, T. (2024). AI-enhanced collective intelligence. Patterns, 5(11). https://doi.org/10.1016/j.patter.2024.101074

[3] Traeger, M. L., Strohkorb Sebo, S., Jung, M., Scassellati, B., & Christakis, N. A. (2020). Vulnerable robots positively shape human conversational dynamics in a human–robot team. Proceedings of the National Academy of Sciences, 117(12), 6370-6375. DOI: 10.1073/pnas.1910402117

[4] Tsvetkova, M., Yasseri, T., Pescetelli, N., & Werner, T. (2024). A new sociology of humans and machines. Nature Human Behaviour, 8(10), 1864-1876. DOI: 10.1038/s41562-024-02001-8

[5] Yasseri, T. (2025). The Memory Machine: How Large Language Models Shape Our Collective Past, VerfBlog. DOI:10.1038/s41562-024-01959-9

©De tekst is beschikbaar onder de licentie Creative Commons Naamsvermelding-NietCommercieel-GelijkDelen 4.0 Internationaal, er kunnen aanvullende voorwaarden van toepassing zijn. Zie de gebruiksvoorwaarden voor meer informatie.