Waarom ChatGPT soms onzin praat – en hoe je dat voorkomt

Het gebeurt ons allemaal wel eens: je stelt een vraag aan ChatGPT, krijgt een antwoord, maar na wat verder nadenken blijkt het gewoon niet te kloppen. Wat is er aan de hand, en hoe kunnen we ervoor zorgen dat de antwoorden die we krijgen betrouwbaarder zijn? Het is en blijft een van de meest besproken topics in mijn AI trainingen, dusduik ik in deze nieuwsbrief in de wereld van AI-hallucinaties, en hoe we deze kunnen voorkomen.

Hoe werkt GPT ook alweer?

ChatGPT is een taalmodel ontwikkeld door OpenAI. Het werkt door te voorspellen welk woord volgt op het vorige in een tekst, gebaseerd op enorm veel data. Maar, in tegenstelling tot mensen, begrijpt ChatGPT niet echt wat het zegt. Het is als een slimme robot die tekst na-aapt zonder de betekenis erachter te begrijpen. Dit is zowel een kracht als een zwakte van AI. Het maakt ChatGPT creatief, maar soms ook onnauwkeurig.

Maar hoe maakt het dan fouten?

Volgens een studie uit januari 2025, komt ongeveer 1,8% van de antwoorden van GPT-4 onterecht over, zoals feitelijke onjuistheden of hallucinaties, vooral in meer technische domeinen. (Vectara, 2025) De cijfers variëren echter sterk per model en toepassing. In sommige gespecialiseerde domeinen zoals wetgeving of medische zaken, kunnen de hallucinaties oplopen tot 50% van de tijd. (Nature, 2025) Dus, hoewel het model indrukwekkend is, kan het nog steeds veel fouten maken.

AI-hallucinaties kunnen ernstige gevolgen hebben, vooral wanneer mensen vertrouwt worden op verkeerde informatie:

  1. De ‘moordenaar’ die geen moordenaar was
    Een Noorse gebruiker ontdekte dat ChatGPT hem beschreef als een veroordeelde moordenaar van zijn kinderen, terwijl dit volledig verzonnen was. De schade aan zijn reputatie was enorm, en de zaak leidde tot een klacht bij de autoriteiten. 
  2. De niet-bestaande rechtszaak
    In 2023 gebruikte een Amerikaanse advocaat ChatGPT om juridische referenties te vinden, maar het model gaf hem foutieve juridische cases. Deze “foutieve” bronnen werden uiteindelijk gebruikt in een rechtszaak, wat leidde tot boetes voor het indienen van onjuiste informatie.
  3. Verkeerde medische informatie
    In medische toepassingen kan het model soms verkeerde diagnostische informatie geven, wat ernstige gevolgen kan hebben voor patiëntenzorg. Medische professionals hebben gemeld dat AI-hallucinaties hun werk bemoeilijken, vooral bij het stellen van diagnoses.
  4. Feitelijke fouten in wetenschappelijke literatuur
    Een 2024-studie toonde aan dat ChatGPT, wanneer het werd gevraagd naar wetenschappelijke artikelen, regelmatig foutieve auteurs en publicatiejaren vermeldde. Dit is niet alleen verwarrend, maar kan ook de wetenschappelijke integriteit schaden. 
  5. Verkeerde samenvattingen in nieuws
    AI-modellen werden gebruikt om nieuwsartikelen samen te vatten, maar gaven vaak onjuiste of misleidende informatie. Dit leidde zelfs tot een rechtszaak tegen OpenAI voor het verspreiden van valse informatie via ChatGPT. 

Hoe voorkom je dat ChatGPT onzin praat?

Gelukkig zijn er manieren om deze fouten te minimaliseren. 
Een aantal tips die ik altijd mee geef in mijn AI-trainingen:

  1. Wees duidelijk en specifiek in je prompts
    Hoe specifieker je vraagt, hoe groter de kans op een correct antwoord. In plaats van “Vertel me iets over de aarde”, kun je beter vragen “Waarom is de lucht blauw?” Dit dwingt ChatGPT om de context goed te begrijpen.
  2. Gebruik Chain-of-Thought (COT) redeneren
    Door ChatGPT stap voor stap te laten nadenken, kun je de kans op fouten verkleinen. Vraag bijvoorbeeld eerst: “Wat is de lucht?” en laat het model verder redeneren naar het specifieke antwoord. Dit helpt het model om complexere antwoorden te geven zonder in de war te raken.
  3. Controleer de feiten
    Zelfs de beste AI-modellen kunnen fouten maken. Controleer altijd belangrijke informatie met betrouwbare externe bronnen zoals nieuwswebsites of wetenschappelijke publicaties. Een simpele zoekopdracht kan soms wonderen doen.
  4. Gebruik Retrieval-Augmented Generation (RAG)
    Deze techniek maakt gebruik van externe databronnen, zoals wetenschappelijke databases of juridische documenten, om de antwoorden van AI te valideren en te verbeteren. Het is vooral handig in domeinen die afhankelijk zijn van precisie, zoals de geneeskunde of wetgeving. (nature.com)

De technologie blijft zich snel ontwikkelen. Er worden steeds meer technieken ontwikkeld om AI-hallucinaties te verminderen. Sommige AI-modellen worden bijvoorbeeld getraind om een soort ‘zelfreflectie’ toe te passen en hun antwoorden af te stemmen op de betrouwbaarheid van hun kennis. Ook wordt er steeds vaker gebruikgemaakt van fact-checking systemen die helpen om de waarheid te verifiëren. 

Maar zelfs met deze verbeteringen blijft het een uitdaging om volledig foutloze AI te creëren. Daarom is het belangrijk om altijd kritisch te blijven en AI als hulpmiddel te gebruiken, niet als de ultieme bron van waarheid.

admin

Jan Scheele werkt dertien jaar op het snijvlak van deep tech, strategie en leiderschap. Als keynote spreker en dagvoorzitter maakt hij technologie tastbaar voor boardrooms, directieteams en grote podia, zonder de complexiteit te versimpelen of te verbergen achter buzzwords.

Zijn achtergrond ligt in het bouwen. Als CEO van een technologie scale-up, oprichter van meerdere techbedrijven en organisator van meer dan vijftig TED-events wereldwijd zag hij van dichtbij hoe technologische keuzes doorwerken in strategie, governance en cultuur. Vanuit zijn betrokkenheid bij het World Economic Forum en de BCNL Foundation kijkt hij daarbij niet alleen naar wat technisch mogelijk is, maar ook naar wat bestuurlijk houdbaar en maatschappelijk wenselijk is.

Hij publiceerde vijf boeken, waarvan twee Amazon-bestsellers, en schrijft wekelijks over AI, blockchain en de organisatorische gevolgen van deep tech. Zijn blogs bereikten inmiddels meer dan twee miljoen lezers.

Mijn wekelijkse

Shot inspiratie

Elke week ontvangen 400+ mensen een shot deep-tech inspiratie. Ook ontvangen? Schrijf je hier rechts gratis in.

Ik spam nooit en gebruik het mailadres
alleen voor deze nieuwsbrief.

Copyright © 2026 Jan Scheele

Ook elke week een shot deeptech inspiratie?

Meld je aan om elk weekend een gratis shot inspiratie te ontvangen in de mailbox.

Ik spam nooit en gebruik het mailadres
alleen voor deze nieuwsbrief.

Paid Search Marketing
Search Engine Optimization
Email Marketing
Conversion Rate Optimization
Social Media Marketing
Google Shopping
Influencer Marketing
Amazon Shopping
Explore all solutions