Het gebeurt ons allemaal wel eens: je stelt een vraag aan ChatGPT, krijgt een antwoord, maar na wat verder nadenken blijkt het gewoon niet te kloppen. Wat is er aan de hand, en hoe kunnen we ervoor zorgen dat de antwoorden die we krijgen betrouwbaarder zijn? Het is en blijft een van de meest besproken topics in mijn AI trainingen, dusduik ik in deze nieuwsbrief in de wereld van AI-hallucinaties, en hoe we deze kunnen voorkomen.

Hoe werkt GPT ook alweer?

ChatGPT is een taalmodel ontwikkeld door OpenAI. Het werkt door te voorspellen welk woord volgt op het vorige in een tekst, gebaseerd op enorm veel data. Maar, in tegenstelling tot mensen, begrijpt ChatGPT niet echt wat het zegt. Het is als een slimme robot die tekst na-aapt zonder de betekenis erachter te begrijpen. Dit is zowel een kracht als een zwakte van AI. Het maakt ChatGPT creatief, maar soms ook onnauwkeurig.

Maar hoe maakt het dan fouten?

Volgens een studie uit januari 2025, komt ongeveer 1,8% van de antwoorden van GPT-4 onterecht over, zoals feitelijke onjuistheden of hallucinaties, vooral in meer technische domeinen. (Vectara, 2025) De cijfers variëren echter sterk per model en toepassing. In sommige gespecialiseerde domeinen zoals wetgeving of medische zaken, kunnen de hallucinaties oplopen tot 50% van de tijd. (Nature, 2025) Dus, hoewel het model indrukwekkend is, kan het nog steeds veel fouten maken.

AI-hallucinaties kunnen ernstige gevolgen hebben, vooral wanneer mensen vertrouwt worden op verkeerde informatie:

  1. De ‘moordenaar’ die geen moordenaar was
    Een Noorse gebruiker ontdekte dat ChatGPT hem beschreef als een veroordeelde moordenaar van zijn kinderen, terwijl dit volledig verzonnen was. De schade aan zijn reputatie was enorm, en de zaak leidde tot een klacht bij de autoriteiten. 
  2. De niet-bestaande rechtszaak
    In 2023 gebruikte een Amerikaanse advocaat ChatGPT om juridische referenties te vinden, maar het model gaf hem foutieve juridische cases. Deze “foutieve” bronnen werden uiteindelijk gebruikt in een rechtszaak, wat leidde tot boetes voor het indienen van onjuiste informatie.
  3. Verkeerde medische informatie
    In medische toepassingen kan het model soms verkeerde diagnostische informatie geven, wat ernstige gevolgen kan hebben voor patiëntenzorg. Medische professionals hebben gemeld dat AI-hallucinaties hun werk bemoeilijken, vooral bij het stellen van diagnoses.
  4. Feitelijke fouten in wetenschappelijke literatuur
    Een 2024-studie toonde aan dat ChatGPT, wanneer het werd gevraagd naar wetenschappelijke artikelen, regelmatig foutieve auteurs en publicatiejaren vermeldde. Dit is niet alleen verwarrend, maar kan ook de wetenschappelijke integriteit schaden. 
  5. Verkeerde samenvattingen in nieuws
    AI-modellen werden gebruikt om nieuwsartikelen samen te vatten, maar gaven vaak onjuiste of misleidende informatie. Dit leidde zelfs tot een rechtszaak tegen OpenAI voor het verspreiden van valse informatie via ChatGPT. 

Hoe voorkom je dat ChatGPT onzin praat?

Gelukkig zijn er manieren om deze fouten te minimaliseren. 
Een aantal tips die ik altijd mee geef in mijn AI-trainingen:

  1. Wees duidelijk en specifiek in je prompts
    Hoe specifieker je vraagt, hoe groter de kans op een correct antwoord. In plaats van “Vertel me iets over de aarde”, kun je beter vragen “Waarom is de lucht blauw?” Dit dwingt ChatGPT om de context goed te begrijpen.
  2. Gebruik Chain-of-Thought (COT) redeneren
    Door ChatGPT stap voor stap te laten nadenken, kun je de kans op fouten verkleinen. Vraag bijvoorbeeld eerst: “Wat is de lucht?” en laat het model verder redeneren naar het specifieke antwoord. Dit helpt het model om complexere antwoorden te geven zonder in de war te raken.
  3. Controleer de feiten
    Zelfs de beste AI-modellen kunnen fouten maken. Controleer altijd belangrijke informatie met betrouwbare externe bronnen zoals nieuwswebsites of wetenschappelijke publicaties. Een simpele zoekopdracht kan soms wonderen doen.
  4. Gebruik Retrieval-Augmented Generation (RAG)
    Deze techniek maakt gebruik van externe databronnen, zoals wetenschappelijke databases of juridische documenten, om de antwoorden van AI te valideren en te verbeteren. Het is vooral handig in domeinen die afhankelijk zijn van precisie, zoals de geneeskunde of wetgeving. (nature.com)

De technologie blijft zich snel ontwikkelen. Er worden steeds meer technieken ontwikkeld om AI-hallucinaties te verminderen. Sommige AI-modellen worden bijvoorbeeld getraind om een soort ‘zelfreflectie’ toe te passen en hun antwoorden af te stemmen op de betrouwbaarheid van hun kennis. Ook wordt er steeds vaker gebruikgemaakt van fact-checking systemen die helpen om de waarheid te verifiëren. 

Maar zelfs met deze verbeteringen blijft het een uitdaging om volledig foutloze AI te creëren. Daarom is het belangrijk om altijd kritisch te blijven en AI als hulpmiddel te gebruiken, niet als de ultieme bron van waarheid.