Wie betaalt eigenlijk de prijs als AI fouten maakt?

Een arts vertrouwt op een algoritme dat een tumor mist.

Een AI-assistent bestelt een product dat nooit had mogen worden gekocht.

Een zelfrijdende auto reageert te laat.

De technologie is indrukwekkend, maar de vraag blijft pijnlijk simpel: wie draait op voor de schade? Een erg leuke vraag uit het publiek, die ik afgelopen week kreeg bij het geven van een keynote. 

In de praktijk blijken het zelden de algoritmes te zijn die de rekening krijgen, maar de mensen en organisaties eromheen. De arts, de bank, de ontwikkelaar, of de gebruiker die op ‘akkoord’ klikte zonder de kleine lettertjes te lezen.

Volgens een wereldwijd onderzoek van Riskified gebruikt inmiddels 70% van de consumenten AI tijdens hun aankoopproces. Toch blijft onduidelijk wie aansprakelijk is als een AI-assistent een verkeerde bestelling plaatst of een fraudeur nadoet. In sectoren als zorg en financiën kan zo’n fout niet alleen geld, maar ook levens kosten.

In de zorg groeit de juridische onrust. De American Medical Association waarschuwt dat artsen in de toekomst mogelijk juist aansprakelijk worden gesteld als ze géén AI gebruiken, omdat dat als nalatig kan worden gezien. Dat creëert een wrange paradox: artsen die AI negeren kunnen worden aangeklaagd, maar ook artsen die AI volgen als het misgaat.

Ook in Europa schuift de verantwoordelijkheid tussen partijen. De nieuwe AI Act beschouwt AI-systemen als producten en legt de nadruk op de menselijke factor: de organisatie die de technologie inzet blijft verantwoordelijk. Toch blijft veel onduidelijk. De richtlijn die specifiek over aansprakelijkheid moest gaan, werd in 2025 ingetrokken na politieke onenigheid.

Bedrijven proberen ondertussen het risico te verleggen. OpenAI biedt klanten bijvoorbeeld een ‘copyright shield’ aan: ze betalen de advocaatkosten als het misgaat, maar niet de schade. Microsoft en Google hanteren vergelijkbare constructies. Of dat moreel houdbaar is, betwijfel ik.

Rechters staan nog aan het begin van dit juridische doolhof. In een Amerikaanse zaak waarin ChatGPT iemand ten onrechte van fraude beschuldigde, wees de rechter de aanklacht af, omdat AI “niet bewust kan liegen”. Een uitspraak die de vraag oproept: als de machine niet kan liegen, kan de mens achter de machine dan ook niet verantwoordelijk worden gehouden?

Technologie ontslaat in mijn optiek niemand van morele verantwoordelijkheid. De fout zit niet in de code, maar in de keuzes die mensen maken over hoe ze AI ontwerpen, testen en gebruiken. AI mag dan slimmer worden, maar aansprakelijkheid blijft voorlopig menselijk werk.

Mijn wekelijkse

Shot inspiratie

Elke week ontvangen 400+ mensen een shot deep-tech inspiratie. Ook ontvangen? Schrijf je hier rechts gratis in.

Ik spam nooit en gebruik het mailadres
alleen voor deze nieuwsbrief.

Copyright © 2026 Jan Scheele

Ook elke week een shot deeptech inspiratie?

Meld je aan om elk weekend een gratis shot inspiratie te ontvangen in de mailbox.

Ik spam nooit en gebruik het mailadres
alleen voor deze nieuwsbrief.

Paid Search Marketing
Search Engine Optimization
Email Marketing
Conversion Rate Optimization
Social Media Marketing
Google Shopping
Influencer Marketing
Amazon Shopping
Explore all solutions