Gaat AI de domheid versterken?

Large language models (LLMs) zoals ChatGPT kunnen zelf tekst produceren. Ze imiteren echter alleen statistische patronen, en kunnen niet kritisch reflecteren op de waarheid en logische consistentie van de gegenereerde tekst. Als resultaat produceren ze vaak ‘hallucinaties’, oftewel onjuiste informatie. Ontwikkelaars gebruiken verschillende technieken om hallucinaties te verminderen, maar het is onwaarschijnlijk dat deze technieken het probleem helemaal oplossen. Als gebruikers de informatie van LLMs overnemen zonder kritisch na te denken, is er dus een risico dat menselijke domheid toeneemt. Om dit te voorkomen heeft het onderwijs de taak om kritische reflectie op het gebruik van LLMs te stimuleren.

Mensen maken zich al lange tijd zorgen dat nieuwe technologieën ten koste gaan van menselijke intelligentie. Al zo’n 2400 jaar geleden beargumenteerde Plato dat geschreven tekst mensen minder wijs zou maken (ironisch genoeg deed hij dit in geschreven vorm). Wanneer alle kennis in teksten is opgeslagen, zo dacht Plato, dan is het niet meer nodig om zelf kennis te onthouden en om er zelf over na te denken [1]. Sinds kort hebben we toegang tot technologieën die teksten niet alleen opslaan, maar zelf produceren: large language models (LLMs), zoals ChatGPT of Deepseek. Plato’s overtrokken bezorgdheid kan wellicht relativerend werken wanneer we ons zorgen maken dat LLMs mensen dommer gaan maken.

Statistische patronen en bullshit

Toch lijkt er met LLMs wel degelijk een nieuw probleem op te doemen. Wanneer we vertrouwen op een tekst die door een mens is geschreven, dan vertrouwen we impliciet op het redenerend en corrigerend vermogen van die persoon. Dat wil zeggen: we gaan ervan uit dat de schrijver tot op zekere hoogte in staat is zijn of haar feiten te controleren, en zichzelf kritisch op denkfouten te bevragen. Natuurlijk kunnen schrijvers fouten maken of misleidende bedoelingen hebben. Maar in dat geval kunnen we meestal vertrouwen op weer andere teksten om die fouten en leugens te corrigeren.

Maar LLMs hebben geen kritische vermogens. Sterker nog: volgens veel AI-kenners begrijpen LLMs niet waar ze het over hebben [2]. Wat de meest geavanceerde LLMs doen, is op basis van statistiek voorspellen hoe een tekst waarschijnlijk verder moet gaan. Stel de tekst tot nu toe is: ‘De Eiffeltoren staat in…’ Dan is het statistisch het meest waarschijnlijk dat het volgende woord ‘Parijs’ is. Dat is zo doordat de teksten waarop de LLM is getraind, over het algemeen afkomstig van het internet, vaak ‘Eiffeltoren’ en ‘Parijs’ in dezelfde context bevatten.

Maar de LLM heeft geen manier om te controleren of de Eiffeltoren echt in Parijs staat. Het kan bijvoorbeeld geen expert raadplegen, het kan geen vragen stellen over de betrouwbaarheid van de teksten waarop het is getraind, enzovoort. Dat is ook niet waarvoor het getraind is; het is enkel getraind om statistische patronen te reproduceren. Een recent artikel beargumenteert daarom dat we de outputs van LLMs niet moeten zien als waarheidsclaims, maar als bullshit [3]. Bullshit is (geloof het of niet) een technische filosofische term, geïntroduceerd door de Amerikaanse filosoof Harry Frankfurt [4]. Frankfurt definieert iemand die bullshit verkondigt als iemand die uitingen doet zonder aandacht te hebben voor de waarheid ervan. Omdat LLMs geen manier hebben om de waarheid van hun claims te verifiëren, zou je ze als bullshitters kunnen zien.

Hallucinerende LLMs

Het is dan ook niet verwonderlijk dat LLMs met enige regelmaat de mist ingaan. Ze zijn berucht om hun hallucinaties, oftewel foutieve outputs [5]. Deze outputs kunnen op twee manieren insluipen. Ten eerste kunnen de teksten op het internet waarop de LLM getraind is, foutieve informatie bevatten. Maar ten tweede kunnen LLMs ook rare antwoorden ‘verzinnen’ die nergens op het internet te vinden zijn. Zo vermeldt ChatGPT als bronnen soms artikelen die nooit geschreven zijn. De statistische patronen die LLMs reproduceren, kunnen blijkbaar resultaten opleveren die in geen enkele bron te vinden is.

Ontwikkelaars van LLM, en andere onderzoekers, zijn bezig verschillende methoden te ontwikkelen om onjuiste antwoorden tegen te gaan [6]. Een mogelijkheid is om tijdens de training van een LLM meer gewicht te geven aan bronnen die over het algemeen betrouwbaar zijn, zoals gerenommeerde kranten of encyclopedieën.

Ook kunnen onjuiste antwoorden gestraft worden in de ‘finetuning’-fase. De meeste LLMs worden namelijk ‘gefinetuned’ nadat ze klaar zijn met het statistische leerproces. In deze finetuning-fase bekijken testers de antwoorden van het model, en kunnen ze feedback geven wanneer deze antwoorden onwenselijk zijn. Negatieve feedback leidt ertoe dat de gewichten in het model worden aangepast. Door negatieve feedback te geven wanneer een LLM hallucinaties produceert, kunnen ontwikkelaars de LLM wellicht aanleren om in het geval van onzekerheid geen uitspraken te doen.

Ten slotte is het natuurlijk mogelijk om een LLM niet alleen tijdens de trainingsfase toegang te geven tot bronnen, maar ook tijdens de generatie van antwoorden. Zo heeft ChatGPT sinds 2024 toegang tot het internet, waardoor het beter in staat is om onjuiste antwoorden te corrigeren [7]. Daarbij wordt opnieuw voorrang gegeven aan betrouwbare bronnen.

Deze technieken zijn nog volop in ontwikkeling, dus het moet nog blijken hoe succesvol ze uiteindelijk zullen zijn in het bestrijden van hallucinaties door LLMs. Maar het is waarschijnlijk dat ze het probleem niet helemaal zullen oplossen. Ze proberen het statistische leerproces in goede banen te leiden of extra safeguards in te bouwen. Maar dat leerproces zelf blijft in essentie hetzelfde. LLMs blijven bullshitters die hun antwoorden allereerst baseren op statistische patronen en niet op waarheid of logische consistentie.

Een tijdperk van domheid?

LLM-hallucinaties zullen dus nog wel even onder ons blijven. Maar betekent dit dat we een tijdperk van kunstmatige domheid tegemoet gaan? Er zijn twee belangrijke risico’s. Het eerste is dat LLMs in de ogen van gebruikers betrouwbare bronnen gaan vervangen. Het tweede is dat we door het gebruik van LLMs niet zelf hoeven na te denken hoe we iets verwoorden of waar we informatie kunnen vinden, en daardoor minder kritische vaardigheden ontwikkelen. Dit zou misschien niet zo erg zijn wanneer ChatGPT deze vaardigheden over kan nemen, maar zoals we hebben gezien is dat maar zeer de vraag.

De eerste voortekenen voor beide risico’s zijn niet direct rooskleurig. Een studie in 2023 liet zien dat gebruikers teksten van ChatGPT even betrouwbaar vinden als teksten die door mensen zijn geschreven (afkomstig van Wikipedia, een relatief betrouwbare bron) [8]. Eerder dit jaar verscheen een studie waaruit bleek dat mensen die meer cognitieve taken uitbesteden aan AI, gemiddeld lager scoren op kritische denkvaardigheden [9]. De erosie van ons denkvermogen door uitbesteding aan technologie, waar Plato 2400 jaar geleden al bang voor was, dreigt dus alsnog werkelijkheid te worden.

Maar het is ook mogelijk dat meer bewustzijn van de risico’s van LLMs uiteindelijk leidt tot meer reflectie op verantwoord gebruik ervan. We hoeven LLMs natuurlijk niet te gebruiken om informerende teksten te produceren. We kunnen ook besluiten ze slechts te gebruiken voor meer ondersteunende taken, zoals het samenvatten van teksten of het verwijderen van spelfouten. Voor het onderwijs ligt een belangrijke taak om nieuwe generaties te helpen verantwoord en risicovol gebruik van LLMs te onderscheiden.

Plato’s angst is uiteindelijk niet uitgekomen, onder andere doordat een onderwijssysteem is ontstaan dat ons helpt om geschreven teksten op een kritische manier te benaderen. Of AI ons uiteindelijk dommer gaat maken, of nieuwe kritische vaardigheden gaat stimuleren, hangt waarschijnlijk vooral af van innovaties in het onderwijs en publieke communicatie, en niet zozeer van computer-technische oplossingen.

Hoe is dit artikel tot stand gekomen?

Dit antwoord is gereviewed door Hein Duijf en bewerkt door Jeroen Hopster

Gepubliceered op: 31 Maart 2025

Citeer dit artikel

[1] Plato, Phaedrus (vert. B. Jowett). Project Gutenberg, 2000. Beschikbaar: https://www.gutenberg.org/files/1636/1636-h/1636-h.htm

[2] L.M. Titus, "Does ChatGPT have semantic understanding? A problem with the statistics-of-occurrence strategy," Cognitive Systems Research, 83, 101174, Jan. 2024. DOI:10.1016/j.cogsys.2023.101174

[3] M.T. Hicks, J. Humphries, & J. Slater, "ChatGPT is bullshit," Ethics and Information Technology, 26(2), 1-10, Jun. 2024. https://doi.org/10.1007/s10676-024-09775-5

[4] H. Frankfurt, On Bullshit. Princeton: Princeton University Press, 2005. /

[5] G. Perković, A. Drobnjak & I. Botički, "Hallucinations in LLMs: Understanding and addressing challenges," in 47th MIPRO ICT and Electronics Convention (MIPRO), Opatija, 2084-2088, Mei 2024. doi: 10.1109/MIPRO60963.2024.10569238

[6] L. Huang et al., "A survey on hallucination in large language models: Principles, taxonomy, challenges, and open questions," ACM Transactions on Information Systems, 43(2), 1-55, Jan. 2025. https://doi.org/10.1145/3703155

[7] OpenAI, "Introducing ChatGPT search". Beschikbaar: https://openai.com/index/introducing-chatgpt-search/

[8] M. Huschens et al., "Do you trust ChatGPT? Perceived credibility of human and AI-generated content," arXiv preprint, arXiv:2309.02524, Sep. 2023. DOI:10.48550/arXiv.2309.02524

[9] M. Gerlich, "AI tools in society: Impacts on cognitive offloading and the future of critical thinking," Societies, 15(1), 6, Jan. 2025. https://doi.org/10.3390/soc15010006

©De tekst is beschikbaar onder de licentie Creative Commons Naamsvermelding-NietCommercieel-GelijkDelen 4.0 Internationaal, er kunnen aanvullende voorwaarden van toepassing zijn. Zie de gebruiksvoorwaarden voor meer informatie.