Hoe kunnen we nieuws-aanbevelingssystemen met kunstmatige intelligentie ontwerpen die niet schadelijk zijn voor het publieke debat?

Hoe goed weet jouw telefoon wat jij leuk vindt? In nieuws aanbevelingssystemen zoals die van je favoriete krant kan kunstmatige intelligentie je artikelen aanbevelen die je interessant vindt. Maar: Nieuws aanbevelen is een heel andere soort taak dan nieuwe films of muziek aanbevelen, omdat nieuws een grote maatschappelijke functie heeft. Hierdoor kunnen diezelfde nieuws aanbevelingssystemen ook schadelijk zijn voor de democratie en het publieke debat. Dit komt omdat deze aanbevelingssystemen dan vooral nieuwsartikelen aanbevelen die je al interessant vindt, terwijl het belangrijk is dat burgers zich bewust zijn van verschillende gezichtspunten en ideeën in het nieuws. Toch is er geen simpel antwoord op de vraag wat de beste manier is om nieuws aanbevelingssystemen te ontwerpen die goed zijn voor het publieke debat en de democratie. Als je een verantwoord nieuws aanbevelingssysteem wil ontwikkelen, moet je aan meerdere dingen denken. Omdat er verschillende ideeën over wat een ideale democratie zijn, is het belangrijk om te bedenken welke theorie over democratie en publiek debat je belangrijk vindt. Ook moet je, om verschillende perspectieven aan te bevelen, die perspectieven ook automatisch kunnen herkennen in nieuwsteksten. Dat is nog niet makkelijk voor de kunstmatige intelligentie modellen die hiervoor gebruikt worden. En als laatste: om zo’n verantwoord aanbevelingssysteem te ontwerpen heb je niet alleen kennis nodig van kunstmatige intelligentie, maar juist ook van andere wetenschapsgebieden, zoals filosofie om te weten wat verantwoord voor de democratie is, en de sociale wetenschappen om te meten hoe mensen zo’n systeem gebruiken.

Wat zijn aanbevelingssystemen precies?

Kunstmatige intelligentie speelt een grote rol in nieuws-aanbevelingssystemen: Systemen waarmee lezers nieuwe nieuwsartikelen aanbevolen krijgen. Elke dag scrollen we door grote hoeveelheden online informatie. Nieuws-aanbevelers zoals Google Nieuws en ook je favoriete krant presenteren aan lezers een select aantal nieuwsartikelen uit die grotere hoeveelheid. Deze systemen gebruiken eerder gedrag van de lezer om te bepalen welke nieuwe artikelen aanbevolen worden. Zulke aanbevelingssystemen (in het Engels recommender systems) zijn overal als je online bent: ze bevelen je nieuwe muziek aan die lijkt op muziek die je al leuk vindt, of een film in hetzelfde genre als eentje die je al gezien hebt. Dat kan heel handig zijn, maar het nieuws is niet alleen entertainment, het is ook de manier waarop burgers informatie verkrijgen over de samenleving. [1] Dit betekent dat deze aanbevelingssystemen een cruciale rol hebben in het publieke debat, waarin iedereen kan praten over belangrijke onderwerpen in de samenleving.

Aanbevelinggsystemen kunnen leiden tot meer versplintering van dit debat. Je krijgt alleen maar meer voorgeschoteld van dezelfde perspectieven, waar je het al mee eens bent en wat je al weet. Aanbevelingssystemen worden gemaakt door teksten te meten en daar scores aan te geven, en aan de hand van deze scores worden teksten aanbevolen (of juist niet aanbevolen). Dit gaat nu meestal door het meten van hoe populair een artikel zal zijn, en wat jouw individuele interesse is. Dit wordt gemeten door te voorspellen waar je op gaat klikken. Het artikel waarvan wordt voorspeld dat lezers er meer op gaan klikken, is het betere artikel en wordt aangeboden aan de lezer. Als je bijvoorbeeld vooral klikt op artikelen die negatief praten over boerenprotesten, krijg je misschien niet snel een artikel aanbevolen over een ander perspectief op die protesten, maar juist een artikel dat hetzelfde perspectief geeft. Maar op welke manier is dat artikel beter: Past het beter bij jouw perspectief, maar is het ook beter voor de samenleving?

Wanneer is de informatie-omgeving gezond?

In plaats van aanbevelingssystemen te maken met zo’n grote rol voor de interesse van individuele lezers, kan deze complexe informatieomgeving ook worden getemd door te denken aan andere belangen. Een voorbeeld hiervan is denken aan de informatie gezondheid van een samenleving. Wat is een gezond nieuws aanbevelingssysteem voor de samenleving als geheel? Om dit te beantwoorden heb je kennis nodig van veel verschillende aspecten van het nieuws, en ook van andere wetenschapsgebieden dan computerwetenschappen: van filosofie tot sociale wetenschappen. Want wat betekent “gezond” hier eigenlijk? En hoe reageren mensen op informatie en het nieuws?

Vrijenhoek en collega’s [2] ontwierpen recent nieuwe manieren van nieuws aanbevelen, die niet afhangen van populariteit en individuele interesse van de lezer. Deze manieren zijn gelinkt aangelinkt zijn aan theorieën over de democratie. In plaats van het meten van interesse van lezers, meten zij andere aspecten van de aanbevelingen, bijvoorbeeld fragmentatie (zijn verschillende lezers zich wel bewust van dezelfde maatschappelijke discussies?) en representatie (worden verschillende perspectieven en groepen uit de samenleving wel genoemd?). Deze onderdelen hebben elk een score tussen de 0 en 1, die aangeven hoeveel fragmentatie of representatie er is in de aanbevelingen.

Bij deze nieuwe manieren van nieuws aanbevelen komen ook verschillende wetenschapsgebieden samen. Ze zijn namelijk gebaseerd op theorieën over democratie in de politieke filosofie. In dit vakgebied denken wetenschappers na over wat het betekent om een goede democratie te zijn. Verschillende theorieën hebben verschillende ideeën over wat hiervoor belangrijk is bij het aanbevelen van nieuws. Een hoge fragmentatie betekent dat lezers zich niet bewust zijn van dezelfde maatschappelijke kwesties, maar dat hoeft niet altijd negatief te zijn. Daarom moeten ontwerpers van systemen reflecteren op de doelen en waarden die volgens hen belangrijk zijn. Als een organisatie bijvoorbeeld een liberale theorie van democratie wil steunen, kan een beetje fragmentatie wel goed zijn. Deze theorie van de democratie vindt het namelijk belangrijk dat burgers lezen wat ze leuk vinden. Als de nieuwsorganisatie echter een meer participatieve democratie belangrijk vindt, moeten burgers worden blootgesteld aan diverse ideeën en perspectieven. En zo zijn er nog enkele andere theorieën over de democratie. In geen van deze theorieën is er een simpel antwoord met een optimale score voor een nieuws-aanbevelingssysteem.

Naast politieke filosofie, is het ook belangrijk om inzichten uit de sociale wetenschappen te integreren in nieuws aanbevelingssystemen.aanbevelinggsystemen. Dit betekent: onderzoek naar hoe mensen reageren op nieuwe manieren van nieuws aanbevelen. Zo blijkt uit onderzoek in ZwitserlandZwitersland dat lezers positief zijn over aanbevelingen in een nieuws-app als die aanbevelingen verschillende meningen laten zien. [7]

Stel je manieren van nieuws aanbevelen voor als een mengpaneel van een radiozender, en als ontwerper van deze aanbeveler en nieuwsorganisatienieuws-organisatie ben jij de DJ. Soms wil je de knop met verschillende perspectieven volledig openzetten, en soms juist niet – soms wil je ze een beetje mixen tot er genoeg bij is dat mensen leuk vinden, maar ook genoeg diversiteit. De juiste mix kun je pas maken nadat je hebt nagedacht over wat voor soort aanbevelingssysteem je precies wil hebben.

Mixing Console

Een verantwoord nieuws-aanbevelingssysteem ontwerpen is een beetje als een mixing console: je wil de verschillende waarden, zoals diversiteit maar ook interesses van de lezers, samen laten komen tot een optimale mix. https://nl.wikipedia.org/wiki/Mengpaneel#/media/Bestand:Mixing_Console_Discom2.jpg

Hoe meten we die verschillende perspectieven?

Om een nieuws-aanbevelingssysteem te ontwerpen dat verschillende perspectieven kan aanbevelen, moeten die perspectieven gemeten worden in nieuwsteksten. Hiervoor kunnen we verschillende technieken gebruiken uit het vakgebied Natural Language Processing, dat kunstmatige intelligentie op taal toepast. Er bestaan al verschillende methoden om verschillende perspectieven uit debatten in teksten te meten, zoals standpuntdetectie. [3] Bij standpuntdetectie kan een computationeel model vertellen of een tekst argumenten VOOR of TEGEN een bepaald onderwerp bevat, zoals voor of tegen strengere abortuswetgeving. Standpuntdetectie zal wel iets aangepast moeten worden voor het aanbevelen van diverse standpunten om het publieke debat en de democratie te steunen. Sommige standpunten bieden bijvoorbeeld misschien wel een ander perspectief, maar zijn ook schadelijk voor de democratie of lezers, zoals argumenten die samenzweringstheorieën over de staat van de democratie uitdragen. [4]

Een duidelijke limitatie van huidige kunstmatige intelligentie modellen is dat ze niet zo goed zijn in standpunten herkennen in nieuwe onderwerpen als in standpunten binnen hetzelfde onderwerp [5]. Dat wil zeggen: als modellen getraind zijn in het detecteren van standpunten voor en tegen de invoering van schooluniformen in een tekst, zijn ze niet even goed in het detecteren van standpunten over een ander onderwerp, zoals het gebruik van kernenergie. In plaats van dat deze modellen leren wat het betekent om voor of tegen iets te zijn, leren ze vooral dat er woorden in een tekst zitten die vaak samenhangen met voor of tegen iets zijn, bijvoorbeeld dat mensen die TEGEN wapenwetgeving in de Verenigde Staten zijn vaak het woordje “pistool” gebruiken, maar dat is niet hetzelfde als een standpunt herkennen [6]. Dit maakt het uitdagend om deze modellen in te zetten in nieuws aanbevelingssystemen, omdat het nieuws constant nieuwe onderwerpen heeft - er is namelijk altijd een nieuwe politicus of evenement.

Al met al is het ontwerpen van verantwoorde nieuwsaanbevelingssystemen niet simpel: kunstmatige intelligentie komt er samen met allerlei andere vakgebieden, zoals filosofie en gedragswetenschap. Kunstmatige intelligentie kan hier een probleem zijn voor de samenleving door eenzijdige aanbeveling van nieuws, maar kunstmatige intelligentie kan juist door het herkennen van verschillende perspectieven ook onderdeel zijn van de oplossing.

Hoe is dit artikel tot stand gekomen?

Dit antwoord is gereviewed door Tijs van den Broek

Gepubliceered op: 31 Maart 2025

Citeer dit artikel

[1] Helberger, N. (2021). On the democratic role of news recommenders. In Algorithms, automation, and news (pp. 14-33). Routledge. https://doi.org/10.1080/21670811.2019.1623700

[2] Vrijenhoek, S., Kaya, M., Metoui, N., Möller, J., Odijk, D., & Helberger, N. (2021). Recommenders with a mission: assessing diversity in news recommendations. In Proceedings of the 2021 conference on human information interaction and retrieval (pp. 173-183). https://doi.org/10.1145/3406522.3446019

[3] Küçük, D., & Can, F. (2020). Stance detection: A survey. ACM Computing Surveys (CSUR), 53(1), 1-37. https://doi.org/10.1145/3369026

[4] Reuver, M., Fokkens, A., & Verberne, S. (2021). No NLP task should be an island: multi-disciplinarity for diversity in news recommender systems. In Proceedings of the EACL Hackashop on news media content analysis and automated report generation (pp. 45-55). https://aclanthology.org/2021.hackashop-1.7

[5] Reuver, M., Verberne, S., Morante, R., & Fokkens, A. (2021). Is Stance Detection Topic-Independent and Cross-topic Generalizable?-A Reproduction Study. In Proceedings of the 8th Workshop on Argument Mining (pp. 46-56). 10.18653/v1/2021.argmining-1.5

[6] Jakobsen, T. S. T., Barrett, M., & Søgaard, A. (2021, August). Spurious correlations in cross-topic argument mining. In Proceedings of* SEM 2021: The Tenth Joint Conference on Lexical and Computational Semantics (pp. 263-277). 10.18653/v1/2021.starsem-1.25

[7] Heitz, L., Lischka, J. A., Birrer, A., Paudel, B., Tolmeijer, S., Laugwitz, L., & Bernstein, A. (2022). Benefits of diverse news recommendations for democracy: A user study. Digital Journalism, 10(10), 1710-1730. https://doi.org/10.1080/21670811.2021.2021804

©De tekst is beschikbaar onder de licentie Creative Commons Naamsvermelding-NietCommercieel-GelijkDelen 4.0 Internationaal, er kunnen aanvullende voorwaarden van toepassing zijn. Zie de gebruiksvoorwaarden voor meer informatie.