Kansen
- AI kan Wikipedia-artikelen beter maken.
- AI-tools kunnen je helpen met het schrijven, bewerken en controleren van artikelen, waardoor informatie toegankelijker en consistenter wordt.
- Met AI-vertaalsoftware kan het wereldwijde bereik van Wikipedia vergroot worden en het kan bijdragen aan meer inclusiviteit.
2. Nieuwe bijdragers ondersteunen:
- AI kan nieuwe bijdragers helpen met automatische suggesties, waardoor meedoen makkelijker wordt en de diversiteit in deelname toeneemt.
Uitdagingen
- Vooringenomenheid en over-standaardisatie van narratieven: LLM's kunnen vooroordelen voortzetten of minderheidsstandpunten marginaliseren (Burton et al., 2024).
- Misinformatie en kwaliteitscontrole: AI-tools hebben geen inherent vermogen tot het controleren van feiten, waardoor het risico bestaat dat fouten worden verspreid (Yasseri, 2025). Geautomatiseerde bewerkingen of het genereren van content zonder strikt toezicht kunnen de geloofwaardigheid van Wikipedia in gevaar brengen.
- Effect op de community: Een te grote afhankelijkheid van AI kan leiden tot verminderde menselijke redactionele betrokkenheid, waardoor het samenwerkingsgevoel minder kan worden (Cui & Yasseri, 2024). Ook kunnen vrijwilligers zich buitengesloten voelen als AI de taken overneemt die zij normaal doen.
Waar moeten we heen: Een gebalanceerde aanpak
- Versterken van Mens-AI samenwerking: Gebruik AI als een hulpmiddel om te assisteren, niet om menselijke redacteuren te vervangen (Tsvetkova et al., 2024). AI kan helpen met repetitieve taken terwijl wij mensen zorgen voor nuance, context en ethische overwegingen. AI kan zelfs worden ingezet om overleg en gesprekken tussen vrijwilligers te ondersteunen (Traeger et al., 2020). Hiervoor is het essentieel om transparante AI-modellen te gebruiken, waarvan we weten welke data gebruikt is en waarvan we kunnen uitleggen hoe beslissingen worden gemaakt. Ook moeten deze modellen zorgvuldig ontworpen zijn en moeten de taken goed verdeeld worden.
- Ontwikkelen van AI-bestendige veiligheidsmaatregelen: Wikipedia kan robuuste beoordelingsmechanismen implementeren om bijdragen van AI te controleren. Duidelijke richtlijnen voor het integreren van AI-output in Wikipedia zijn belangrijk om de kwaliteit en neutraliteit te bewaren. Wikipedia is beschikbaar in veel talen, en veel versies hebben lokale mechanismen om bijdragen van eenvoudige bots, nieuwe gebruikers, etc., te monitoren. Dit zou uitgebreid kunnen worden om bijdragen die gebruik maken van AI, met name grote taalmodellen, te dekken. Anders lopen we het risico te maken te krijgen met de illusie van consensus waar geen consensus is (Burton et al., 2024).
- Verbeteren van digitale geletterdheid: Help gebruikers om AI-gegenereerde content kritisch te kunnen beoordelen. Publieke educatie over de werking en beperkingen van AI zal het risico op misinformatie verminderen (Yasseri, 2025). Voor iemand die bekend is met hoe generatieve AI werkt, is het triviaal dat de tekst geproduceerd door grote taalmodellen "verzonnen" is en dat er (op dit moment) geen garantie is dat de gegenereerde tekst feitelijk correct is. Een typische Wikipedia-redacteur weet dit misschien niet. Een typische Wikipedia-lezer weet dit hoogstwaarschijnlijk niet. Het bevorderen van digitale geletterdheid kan helpen om sommige van deze risico's te verminderen.
De toekomst
AI kan veel veranderen voor Wikipedia, maar het moet zorgvuldig worden ingezet om trouw te blijven aan de missie om vrije, neutrale en gevarieerde informatie te bieden. Door mensen centraal te stellen en problemen zoals vooringenomenheid, misinformatie en de impact op de gemeenschap aan te pakken, kan Wikipedia een wereldwijde bron van samenwerking en kennis blijven in het tijdperk van AI.