7 maatschappelijke AI-uitdagingen (en mijn oplossingen) waar we nú aan moeten werken

In Nederland hoeven we niet naar futuristische dystopieën te kijken om de gevaren van AI te begrijpen. Denk bijvoorbeeld aan de Toeslagenaffaire. Een algoritme van de Belastingdienst beoordeelde automatisch wie verdacht was van fraude. Geen transparantie, geen menselijke controle – alleen een systeem dat duizenden ouders onterecht wegzette als fraudeurs. Het gevolg: levens verwoest, banen kwijt, kinderen uit huis geplaatst. En niemand die écht aansprakelijk was. In de AI-high waar veel professionals en organisaties in zitten, vergeten we in mijn optiek om ook echt scherp te gaan kijken naar de minder positieve kanten.

Elke nieuwe technologie begint met blinde vlekken

We zien het elke keer weer bij de meeste nieuwe technologieën. De opkomst van internet leidde tot explosies in criminaliteit en desinformatie. De Bitcoin-revolutie begon met idealen, maar trok ook hackers en witwassers aan. Social media begonnen als platforms om te verbinden, maar werden snel wapens in informatie-oorlogen. En denk aan drones: ooit hobby-technologie, nu inzetbaar voor spionage of zelfs aanvallen. Wetgeving? Die liep altijd achter.

We zien nu dezelfde reflexen bij AI: overheden die worstelen met regels, bedrijven die winst voorrang geven, criminelen die de boel slim misbruiken en een samenleving die pas echt wakker schrikt als het misgaat. Ja, ik word elke dag enthousiaster over alle mogelijkheden en hoe ze mij versterken als professional. Maar ik merk elke keer weer als ik ergens spreek over AI en het publiek erover vraag; niemand houdt de ontwikkelingen meer bij; zo veel en zo snel. Laat staan dat mensen rustig nadenken over de impact ervan. Wat AI kan, maar vooral: wat het doet en wat dat met ons doet.

Zeven AI-gevaren die al geen toekomstmuziek meer zijn

De discussie over AI-risico’s richt zich in mijn optiek vaak op de bekende thema’s: hallucinerende chatbots, privacyproblemen of AI’s die data lekken. Toegegeven, die problemen zijn reëel, maar ze worden inmiddels heel actief en succesvol aangepakt. Hallucinaties nemen flink af door betere modellen / redeneringsvermogen en privacy wordt beter gewaarborgd via afgesloten omgevingen zoals Microsoft Copilot.

Maar in mijn optiek zitten de échte risico’s veel dieper. Niet in wat AI zegt, maar in wat het stilletjes doet. Wie wordt gevolgd, beoordeeld of uitgesloten door een algoritme? Welke beslissingen nemen machines al zonder dat we het doorhebben? Wat betekent dat voor onze rechtsstaat, arbeidsmarkt of mentale gezondheid?

Laatst mocht ik voor een overheidsorganisatie de hosanna- en hypeverhalen thuis laten en het personeel volledig bang maken met gefundeerde argumenten over waar ik zie dat er nog te weinig gebeurt om de uitwassen van AI tegen te gaan. Mijn top 7:

1. AI maakt desinformatie geloofwaardiger en gevaarlijker

Nepnieuws is niet nieuw, maar AI maakt het overtuigender én schaalbaarder. Tijdens de verkiezingen in Nederland in 2023 gingen deepfake-video’s van politici viraal. Een gemanipuleerde toespraak die nooit had plaatsgevonden werd duizenden keren gedeeld – vaak als ‘bewijs’. Ze zijn zo goed, dat ze ook door de controlefilters van de socialmedia-platformen heen komen.

Volgens onderzoek heeft 1 op de 3 Nederlanders moeite om echt van nep te onderscheiden. Onderzoek van de Universiteit Leiden toont aan dat mensen die meer gebruikmaken van social media en vatbaar zijn voor complottheorieën, beter zijn in het herkennen van deepfakes, wat suggereert dat anderen mogelijk kwetsbaarder zijn voor misinformatie.​

2. Van slimme stad naar controlestaat

Smart city-technologieën, zoals gezichtsherkenning en gedragsanalyse, bieden efficiëntie maar brengen ook risico’s met zich mee voor privacy en burgerrechten. In Amsterdam wordt geëxperimenteerd met slimme camera’s die afval op straat herkennen. En met algoritmen die tijdens de coronapandemie detecteerden of mensen voldoende afstand hielden. Hoewel deze technologieën bijdragen aan stadsbeheer, roepen ze ook vragen op over toezicht en privacy.​

3. Algoritmes kunnen systematisch discrimineren zonder dat we het doorhebben

Het gebruik van AI in sollicitatieprocedures kan leiden tot onbedoelde discriminatie. Het College voor de Rechten van de Mens stelt dat werkgevers verantwoordelijk blijven voor de uitkomsten van algoritmes en zich niet kunnen verschuilen achter technologie als er sprake is van ongelijke behandeling. Een onderzoek onder 896 Nederlandse werkgevers toonde aan dat het bewustzijn over de risico’s van algoritmische discriminatie laag is.

4. AI beslist soms dodelijk, zonder mens erbij

De ontwikkeling van autonome wapensystemen, ook wel ‘killer robots‘ genoemd, roept ethische en juridische vragen op. Volgens de Adviesraad Internationale Vraagstukken (AIV) en de Commissie van Advies inzake Volkenrechtelijke Vraagstukken (CAVV) moet Nederland zich nadrukkelijker bezighouden met de regulering van deze systemen. Er is bezorgdheid dat zonder duidelijke regelgeving de inzet van dergelijke wapensystemen kan leiden tot onvoorspelbare en mogelijk catastrofale gevolgen.

5. AI kan worden gemanipuleerd door een sticker op een stopbord

AI-systemen in het verkeer, zoals die voor zelfrijdende auto’s, zijn kwetsbaar voor manipulatie. In een onderzoek werden kleine stickers op stopborden geplakt, waardoor zelfrijdende auto’s deze verkeersborden niet meer als zodanig herkenden en ze interpreteerden als borden met een snelheidsbeperking. Hoewel dit specifieke voorbeeld niet uit Nederland komt, benadrukt het de noodzaak voor robuuste beveiligingsmaatregelen en voortdurende evaluatie van AI-systemen in kritieke infrastructuren.

6. AI verandert werk en niet iedereen wordt meegenomen

De opkomst van AI heeft aanzienlijke gevolgen voor de Nederlandse arbeidsmarkt. Volgens een rapport van PwC is meer dan 44% van de banen in Nederland in hoge of zeer hoge mate blootgesteld aan generatieve AI, zoals ChatGPT. Dit betekent dat bijna de helft van de huidige functies significant kan veranderen door de inzet van AI-technologieën.  

De veranderingen op de arbeidsmarkt hebben bredere maatschappelijke implicaties. Een rapport van de APG benadrukt dat het verlies van werk door AI kan leiden tot sociale uitsluiting en een gevoel van verlies van controle over het eigen leven. Zonder adequate ondersteuning en omscholingsmogelijkheden kunnen getroffen werknemers moeite hebben om opnieuw werk te vinden, wat kan resulteren in economische ongelijkheid en sociale spanningen.

7. AI beïnvloedt gedrag zonder dat je het merkt

AI-algoritmes op platforms zoals TikTok kunnen gebruikers onbewust sturen richting content die schadelijk is voor hun mentale gezondheid. Amnesty International waarschuwt dat de ‘Voor Jou’-pagina van TikTok na enkele uren gebruik een overweldigende hoeveelheid content toont die gerelateerd is aan mentale gezondheidsproblemen, wat zorgwekkende implicaties heeft voor jongeren. Dit onderstreept de noodzaak voor transparantie en regulering van algoritmische aanbevelingssystemen op social media-platforms.​

Wat kunnen we eraan doen?

Technology changes exponentially, but social, economic, and legal systems change incrementally – Larry Downes

Technologie ontwikkelt zich nu eenmaal altijd veel sneller dan wetgeving. Dat noemen ze ook wel het ‘pacing problem‘. Er wordt wereldwijd inmiddels keihard gewerkt aan regels en ethiek voor AI. De EU heeft de AI Act, de VS lanceert AI-principes en ook landen als Japan en Canada zetten kaders neer. Belangrijker nog: steeds meer AI-ontwikkelaars bouwen zelf ethische toetskaders in hun werk.

Bedrijven als OpenAI en Anthropic publiceren ‘red teaming’-verslagen en stellen hun modellen open voor toetsing. Maar dit is vaak nog een wassen neus in mijn optiek, want dit alles is nog volledig vrijwillig/vrijblijvend voor de bedrijven. Zonder duidelijke verplichtingen, onafhankelijke controle en stevige handhaving blijven we kwetsbaar.  Wat zijn dan wel oplossingen? Ik heb een aantal ideeën voor Nederland op een rij gezet.

Een wettelijk recht op menselijke toetsing

Een AI-systeem mag nooit als enige beslissen over zaken die diep ingrijpen in iemands leven: denk aan het toekennen van toeslagen, zorgtoegang, een lening of zelfs een juridische beoordeling. Mensen moeten altijd het recht hebben om uitleg te krijgen en om die beslissing te laten herzien door een mens. Dat klinkt misschien logisch, maar is nog lang niet vanzelfsprekend geregeld.

In de Europese AI Act wordt het belang van menselijke controle bij risicovolle systemen genoemd, maar een hard afdwingbaar burgerrecht bestaat nog niet. In de financiële sector wél: daar geldt al dat kredietbeslissingen op verzoek opnieuw door een mens moeten worden bekeken. Nederland kan dit als eerste expliciet vastleggen, bijvoorbeeld via een aparte AI-wet of als uitbreiding op bestuursrechtelijke waarborgen. Digitale ombudsdiensten kunnen vervolgens burgers laagdrempelig helpen bij bezwaar en toetsing.

Dat is geen administratieve luxe, maar een bescherming tegen onzichtbare macht. Zolang systemen mogen beslissen zonder dat je weet wie verantwoordelijk is, zijn rechten kwetsbaar.

Transparantie als bouwplicht

AI-systemen die niet uitlegbaar zijn, zouden niet in gebruik mogen worden genomen. Iedereen die een AI-systeem ontwikkelt of inzet – overheid of bedrijf – moet vooraf documenteren hoe het werkt:

  • wat het doel is
  • welke data zijn gebruikt
  • welke aannames erin zitten
  • hoe vaak het faalt
  • hoe gebruikers feedback kunnen geven.

In andere sectoren is dat volkomen normaal. Denk aan het CE-keurmerk in de bouw of techniek: zonder technische onderbouwing geen toegang tot de markt. Grote techbedrijven publiceren inmiddels vrijwillig ‘model cards’ met uitleg over hun AI, maar die zijn vaak summier en juridisch niet bindend.

Door wettelijk te eisen dat ieder systeem dat publieke of maatschappelijke impact heeft een ‘algoritmisch paspoort’ moet hebben, wordt transparantie een ontwerpeis. Dat maakt het mogelijk om systemen te vergelijken, te controleren, en – indien nodig – af te wijzen. Juist in een tijd waarin AI-beslissingen steeds minder zichtbaar worden, is inzicht geen extraatje, maar een voorwaarde voor vertrouwen.

Onafhankelijke AI-toezichtteams

Goed toezicht op AI vereist meer dan een adviescommissie of ethisch panel. Er is behoefte aan echte inspectieteams met doorzettingsmacht: professionals die AI-systemen kunnen onderzoeken, audits kunnen afdwingen en indien nodig systemen stil kunnen leggen. Die modellen bestaan in andere sectoren allang. Denk aan de Nederlandse Voedsel- en Warenautoriteit of de Inspectie Gezondheidszorg.

Voor AI ontbreekt zo’n autoriteit nog. De overheid zou een onafhankelijke toezichthouder kunnen oprichten met multidisciplinaire teams: van juristen en ethici tot datawetenschappers en gedragspsychologen. Die krijgen toegang tot overheidsdata én private systemen als die publieke invloed hebben. Ze kunnen meldplicht opleggen bij incidenten, patronen signaleren, en waar nodig ingrijpen. Waarom dat nodig is? Omdat veel AI-toepassingen zó complex zijn dat zelfs ontwikkelaars ze nauwelijks begrijpen. Als niemand controleert, groeit het risico op misbruik, discriminatie en onveiligheid tot het moment dat de schade onomkeerbaar is.

Een nationaal kennisinstituut voor AI

Als we AI willen gebruiken in het publieke belang, hebben we een publieke kennisbasis nodig. Een onafhankelijk instituut, vergelijkbaar met het RIVM, dat onderzoek doet naar de maatschappelijke impact van AI, dat systemen beoordeelt en burgers en beleidsmakers objectief informeert. Zoiets bestaat nog niet, maar zou kunnen voortbouwen op bestaande partijen als TNO of het Rathenau Instituut. Het instituut zou best practices verzamelen, modellen toetsen op transparantie, risico’s in kaart brengen en wetenschappers, journalisten en overheden voorzien van actuele kennis.

Cruciaal: het moet echt onafhankelijk opereren. Dus zonder commerciële of politieke sturing. Waarom dit dringend is? Omdat we nu vooral afhankelijk zijn van kennis die bij techbedrijven zelf zit. Maar wie de technologie ontwikkelt, moet niet ook degene zijn die bepaalt of het goed gaat. Publieke technologie vraagt om publieke toetsing en dat begint bij publieke kennis.

Verplichte AI-educatie vanaf schoolniveau

Om je staande te houden in een wereld waarin AI keuzes beïnvloedt, gedrag stuurt en zelfs bepaalt wat je ziet, moet je begrijpen hoe het werkt. Daarom zou AI-educatie een structureel onderdeel moeten worden van het onderwijs – al vanaf de basisschool. Niet alleen technisch, maar ook ethisch en maatschappelijk: wat doet AI met je wereldbeeld, met privacy, met je rechten?

Finland is op dit vlak voorloper, met brede AI-lessen voor jongeren én volwassenen. In Nederland zijn er pilots en enthousiaste initiatieven, maar het ontbreekt aan samenhang en structurele ondersteuning. Het ministerie van OCW zou in samenwerking met de Nederlandse AI Coalitie een nationaal curriculum kunnen opstellen, inclusief leermiddelen, training voor docenten en betrokkenheid van het bedrijfsleven.

Want als we willen dat burgers later kritisch, weerbaar en vrij blijven in een wereld vol slimme systemen, moeten we ze die vaardigheden al jong aanleren. Digitale geletterdheid is niet optioneel, het is het nieuwe burgerschap.

De echte AI-vraag: wie stuurt wie?

Als we nu niets doen, groeit AI buiten ons om. Dan bouwen we systemen die mensen beoordelen, selecteren en sturen zonder dat we begrijpen hoe of waarom. De toeslagenaffaire zou dan geen pijnlijk incident meer zijn, maar het begin van een patroon waarin technologie menselijke schade veroorzaakt zonder dat iemand nog verantwoordelijk is. Niet uit kwade wil, maar uit gemak, onwetendheid en een gebrek aan regie.

Wat als we het nu eens anders proberen te doen? Dat we technologie beschouwen als een publiek vraagstuk, niet als een marktproduct. Dat we ethiek niet aan de achterkant toevoegen, maar vanaf de eerste regel code integreren. En dat we toezicht durven organiseren, recht durven beschermen, en jongeren leren hoe ze zichzelf kunnen wapenen tegen manipulatie door slimme systemen. Dan is AI geen bedreiging, maar een bondgenoot in het bouwen van een menswaardige samenleving.

De toekomst van AI is geen technisch verhaal. Het is een democratisch verhaal. Een rechtvaardigheidsvraag. Die ligt in mijn optiek niet in de handen van machines, maar in die van ons.

Je kleding wordt slimmer dan je telefoon… en weet straks eerder dan jij dat je ziek wordt

Je kleding wordt slimmer dan je telefoon… en weet straks eerder dan jij dat je ziek wordt

Wat als je kleding meer doet dan je warmhouden? Wat als het ook meet hoe het met je gaat, je houding verbetert of je helpt om beter te slapen? Dat is geen toekomstmuziek meer. Slimme kleding – ook wel e-textiles of smart wear genoemd – is aan een stevige opmars bezig. En in mijn optiek is het een van de meest tastbare voorbeelden van hoe technologie onze dagelijkse routines langzaam maar zeker verandert.

Wat is het precies? Slimme kleding is kleding waarin technologie is verwerkt. Vaak zijn dat sensoren in de stof, geleidende draden, bluetoothchips of zelfs kleine AI-modules. Daarmee kan je kleding informatie verzamelen over je lichaam, beweging, temperatuur of omgeving. Die gegevens worden doorgestuurd naar een app of systeem dat er iets mee doet – van inzichten geven tot directe feedback.

Wat mij opvalt: de toepassingen zijn ontzettend breed, en lang niet allemaal futuristisch of ver weg. Een paar voorbeelden:

Wearable X ontwikkelde de Nadi X yoga pants: een yogabroek met ingebouwde trillingsmotoren die je zachtjes laat voelen als je je houding moet aanpassen. Geen yogaleraar nodig – je broek coacht je.

Levi’s en Google kwamen met de Commuter Trucker Jacket, een spijkerjas met aanraakgevoelige mouwen. Daarmee kun je swipen om een nummer te skippen of navigatie te activeren zonder je telefoon te pakken. Klinkt als een gimmick, maar het werkt verrassend soepel.

Under Armour’s Athlete Recovery Sleepwear neemt lichaamswarmte op en stuurt het terug in de vorm van infraroodlicht, wat zou bijdragen aan betere spierherstel en diepere slaap. Ik weet niet of het écht werkt – maar het idee is sterk: nachtkleding die actief meewerkt aan je herstel.

Ambiotex heeft een slim shirt dat je anaerobe drempel meet. Interessant voor topsporters, maar in mijn ogen ook voor mensen die bewuster willen trainen of herstellen na een blessure.

Hexoskin biedt shirts die naast hartslag en ademhaling ook je slaappatroon en vermoeidheid monitoren. Ik heb zo’n shirt getest: het voelt als gewone sportkleding, maar de data is verrassend uitgebreid en nuttig.

Neviano, een Frans modemerk, maakt badpakken met een UV-sensor. Als de zonkracht te hoog wordt, krijg je een seintje dat het tijd is voor zonnecrème of schaduw. Praktisch, zeker voor ouders met jonge kinderen.

– En dan zijn er de Sensoria socks, die drukpunten onder je voeten meten tijdens het hardlopen. Via de app krijg je looptechniek-tips om blessures te voorkomen. Dat klinkt misschien klein, maar wie ooit een stressfractuur heeft gehad weet hoe waardevol dit soort inzichten kunnen zijn.

In mijn optiek zit de kracht van slimme kleding vooral in het feit dat je er niets voor hoeft te doen. Je trekt het aan, en het doet z’n werk. Geen extra apparaten, geen handelingen – gewoon je kleren. En dat maakt het, voor mij, interessanter dan veel andere wearables.

Tegelijkertijd zijn er ook duidelijke beperkingen. De prijs ligt nog hoog: een slim jack kost al snel drie tot vijf keer zoveel als een normaal exemplaar. En hoewel de technologie indrukwekkend is, is de gebruikservaring vaak nog net niet soepel genoeg. Batterijen moeten opgeladen worden, connecties vallen soms weg, en wassen is meestal een uitdaging.

Bovendien speelt privacy een steeds grotere rol. Kleding die je hartslag, slaap of zelfs je stressniveau meet… wie heeft toegang tot die data? In mijn ogen moet de sector daar nog volwassen in worden. Want comfort en gezondheid zijn mooi – maar dan wél op jouw voorwaarden.

Mijn eindoordeel? Slimme kleding is geen hype. Het is een logische evolutie in een wereld waarin technologie steeds dichter op ons lijf zit. De voorbeelden die ik net noemde laten zien dat het allang geen toekomstvisie meer is. Maar om écht breed omarmd te worden, moet het betaalbaarder, betrouwbaarder en vooral: menselijker worden. Want slimme kleding moet niet alleen slim zijn – het moet je ook helpen om je beter, vrijer en gezonder te voelen. Dát is voor mij pas echt stijlvol.

Meta’s AI-app maakt kunstmatige intelligentie sociaal – en dat is groter dan het lijkt

AI was jarenlang een soort individuele ervaring. Jij en een chatbot, op je laptop of telefoon, in een soort één-op-één gesprek. Maar wat als AI net zo sociaal wordt als Instagram of Spotify? Meta’s nieuwe AI-app doet precies dat: het maakt kunstmatige intelligentie onderdeel van je sociale netwerk. En dat is even wennen – maar misschien ook een gamechanger.

Wat doet de app? Je kunt ermee praten, tekst genereren, plaatjes maken, je slimme bril koppelen… niets nieuws onder de zon, zou je zeggen. Maar het verschil zit ‘m in de Discover-feed. Die laat zien wat anderen doen met AI. Prompts, vragen, beelden – alles wat mensen delen – kun je bekijken, liken, aanpassen of zelf gebruiken. Een soort TikTok, maar dan niet voor dansjes, maar voor AI-ideeën.

Waarom doet Meta dit? Omdat het iets goed begrijpt: AI is pas écht krachtig als het gedeeld wordt. In plaats van zelf eindeloos sleutelen aan de perfecte prompt, kun je straks gewoon zien hoe anderen het aanpakken. Net zoals je muziek deelt op Spotify of recepten op Pinterest. En als bedrijf met miljarden gebruikers is Meta perfect gepositioneerd om daar een platform voor te bouwen.

Wat is er goed aan? De technologie is indrukwekkend. Gebouwd op Llama 4 – het eigen AI-model van Meta – is de app snel, persoonlijk en spraakgestuurd. Je kunt wisselen tussen tekst, beeld en stem, en als je een Meta-bril hebt, loopt het gesprek gewoon mee van bril naar telefoon naar desktop. De AI onthoudt wat jij belangrijk vindt – van je vakantieplannen tot je voorkeur voor vegetarisch eten – en maakt antwoorden steeds persoonlijker.

Maar er zijn kanttekeningen. De app is voorlopig alleen in een paar Engelstalige landen volledig beschikbaar. En belangrijker: die persoonlijke ervaring vraagt om data. Veel data. Van wat je post op Facebook tot wie je volgt op Instagram. Volgens Meta gebeurt dat alleen met toestemming, en je kunt instellen wat je wel of niet deelt. Maar feit blijft: hoe persoonlijker de AI, hoe meer je moet prijsgeven. En dat roept vragen op over privacy, zeggenschap en transparantie – zeker gezien Meta’s verleden.

Dan is er nog het sociale aspect zelf. Want hoe zinvol is het om door de AI-gesprekken van anderen te scrollen? Voor de een een bron van inspiratie, voor de ander vooral chaos of zelfs onbedoeld oversharing. De waarde van die feed hangt dus sterk af van de community eromheen.

En hoe betrouwbaar is de AI eigenlijk? In tests maakt Meta’s assistent nog regelmatig simpele fouten – van verkeerde rekenantwoorden tot kromme logica. Dat is niet uniek voor Meta, maar het onderstreept wel dat deze app nog niet klaar is voor serieuze toepassingen zoals zorg of juridische hulp. Het is een consumentenproduct – voor nu vooral bedoeld om te ontdekken, spelen en experimenteren.

Dus wat is het eindoordeel? De nieuwe Meta AI-app is geen simpele ChatGPT-kloon. Het is een strategische zet die AI uit het isolement haalt en onderdeel maakt van het sociale web. Dat is slim, ambitieus, en ook een tikje spannend. Want als AI net zo invloedrijk wordt als sociale media, moeten we extra goed nadenken over regels, bescherming en zeggenschap.

Meta heeft met deze app misschien niet het slimste AI-model, maar wel het grootste podium. En dat kan de manier waarop we AI gebruiken – en samen beleven – definitief veranderen. De toekomst van AI wordt niet alleen slimmer. Ze wordt ook… socialer.

3 manieren hoe overheden AI inzetten tégen burgers

3 manieren hoe overheden AI inzetten tégen burgers

Kunstmatige intelligentie wordt wereldwijd door overheden ingezet — maar steeds vaker niet vóór de burger, maar tegen hem. Denk aan surveillancesystemen, deportatie-algoritmes en militaire doelen die door AI worden geselecteerd. Het wrange is: ondanks de lessen van de Toeslagenaffaire, waarin geautomatiseerde systemen duizenden levens verwoestten, lijkt er nauwelijks iets veranderd. Transparantie ontbreekt, toezicht is minimaal, en de gevolgen zijn vaak niet te herstellen. Toch blijft de technologie oprukken, met grote gevolgen voor mensenrechten, privacy en zelfs levens.

Neem de Verenigde Staten. Sinds kort wordt AI actief gebruikt bij het opsporen en deporteren van mensen zonder verblijfsvergunning. Via een netwerk van databases en voorspellende algoritmes worden mensen gevolgd, geprofileerd en automatisch aangemerkt als “risico.” Deze aanpak komt voort uit het idee dat technologie objectiever zou zijn dan mensen. Maar klopt dat wel? Volgens burgerrechtenorganisaties leidt het vooral tot fouten en discriminatie. Er is nauwelijks transparantie, en mensen die onterecht op een lijst belanden, hebben vaak geen idee hoe ze daar überhaupt op gekomen zijn.

In Israël zien we een ander, nog schrijnender voorbeeld. Tijdens militaire operaties in Gaza maakte het Israëlische leger gebruik van AI-systemen met namen als Lavender en Gospel. Deze systemen helpen bij het selecteren van doelen, soms binnen seconden. Dat klinkt efficiënt, maar het roept fundamentele vragen op. Want hoe zeker weet je dat een algoritme het verschil kan zien tussen een militant en een burger? Volgens een recent artikel in de Financial Times accepteerde het leger een foutmarge van 10%. Bij technologie die over leven en dood beslist, is dat geen bijzaak.

Ook in de VS groeit het gebruik van zogeheten “AI-persona’s” in de opsporing. In een programma met de naam BlueOverwatch creëren veiligheidsdiensten digitale versies van verdachten. Deze avatars worden geanalyseerd om hun gedrag te voorspellen, nog vóór ze iets strafbaars hebben gedaan. Het doet denken aan sciencefiction, maar is vandaag al praktijk. Volgens de ontwikkelaars zou het gaan om “proactieve veiligheid.” Tegelijkertijd waarschuwen experts: dit is een glijdende schaal naar permanente surveillance, zonder duidelijke spelregels of toezicht.

De cijfers onderschrijven dat we hier niet te licht over moeten denken. Uit onderzoek van Stanford blijkt dat wereldwijd 75 van de 176 onderzochte landen al AI inzetten voor surveillance-doeleinden, vaak zonder duidelijke wetgeving. En volgens Freedom House zijn we al negen jaar op rij bezig aan een wereldwijde daling van digitale vrijheid.

Moeten we dan stoppen met AI? Nee, absoluut niet. De technologie zelf is niet het probleem. Het gaat erom hoe we het gebruiken – en vooral wie er de controle over heeft. AI kan overheden helpen slimmer, eerlijker en efficiënter te werken. Maar zonder duidelijke grenzen, toezicht en publieke discussie ligt misbruik op de loer.

Het is tijd dat we verder kijken dan hype en belofte. AI vraagt niet alleen om slimme programmeurs, maar ook om scherpe democratische keuzes.

OpenAI is building its own social media platform: smart move or peak AI hype?

OpenAI is building its own social media platform: smart move or peak AI hype?

OpenAI – the company behind ChatGPT – is reportedly working on its own social media platform. This news recently surfaced through a series of tweets, leaks, and lively discussions on forums like Hacker News. What started as a rumor now seems more serious than initially thought. Allegedly, there is already an internal prototype where users can post AI-generated images in an Instagram-like feed. In this article, I’ll dive into it!

My first question, probably like many others: why on earth would an AI company dive into the already saturated world of social media? Is this a brilliant strategic idea, or an expensive distraction from their core mission? The first signals about this plan came from The Verge, which reported that OpenAI is working on a social platform where image generation via ChatGPT plays a central role.

Imagine: you create a Ghibli-style AI image, click ‘post,’ and share it with your followers in a feed. Sam Altman, OpenAI’s CEO, is said to be gathering feedback behind the scenes from trusted insiders about the idea.

That Altman is thinking about this isn’t really surprising. Back in February, he responded to a post about Meta’s AI plans by saying, “Ok fine maybe we’ll do a social app.” It sounded like a joke at the time, but now it appears to be a serious strategy. Combine that with OpenAI’s public experiments with an AI image feed on Sora.com, and the picture becomes clearer.


Why this could actually be a smart move

Over the past few days, I’ve been reading through countless forums like Reddit and Hacker News to form a well-rounded opinion on this plan. I have to admit, there are some interesting angles to it.

  1. Fresh data supply
    OpenAI constantly needs new, real user data to improve its models. As more and more online data disappears behind paywalls or gets contaminated with AI-generated content, having a proprietary stream of genuine user data is invaluable. A social network where people actively post, comment, and share provides exactly that.
  2. Creative co-creation
    Instead of endless political arguments or viral videos, an AI-driven platform could revolve around expression and creativity. Think of posts created through collaboration between humans and machines. That’s a fundamentally different starting point compared to existing networks—and potentially refreshing.
  3. Always a digital sparring partner
    Imagine a platform where you type a thought, and the AI helps make it sharper, more visual, or more engaging. That’s not social media as we know it—that’s a personal assistant for your content creation. There’s real potential here. You can already see hints of this happening on platforms like Instagram and WhatsApp, where similar features are being introduced.

A new network… or a repeat of past mistakes?

Of course, there are also plenty of reasons why this could end up being another Google Plus moment.

  1. An overcrowded market
    We already have X (formerly Twitter), Threads, Mastodon, Bluesky, Reddit, Discord, Instagram… the list is endless. Why would users adopt yet another network, especially one potentially populated by bots? Personally, I’m finding myself reducing the number of active channels just to maintain focus.
  2. AI as a social illusion
    A network filled with posts and conversations created by AIs may sound fascinating, but in my view, it can quickly feel hollow. Many people value social networks because real people are behind them. If that human layer is missing, there’s little emotional value left.
  3. Privacy and trust
    OpenAI is already under fire for using training data without clear consent. If the company also starts reading your social posts—whether you consent or not—how transparent and fair will that be? And who decides what you are allowed to share on a network built by an AI company?
  4. Loss of focus at OpenAI
    Putting on my startup coach hat for a moment: OpenAI is fundamentally an AI research and product company. Building a social network—with all the moderation, growth hacking, community building, and everything else that entails—risks stretching the company too thin. Resources currently devoted to fundamental AI development could be scattered across a project far outside their original expertise. In a market where competition around model quality, reliability, and speed is heating up, this could be a major distraction.

Caught between ambition and a hunger for data

Whether this is a good idea really depends on your perspective. For OpenAI, it’s a smart move strategically: it delivers user data, visibility, and a way to integrate their tools more deeply into everyday life. But for users, the tension is greater. Do we want yet another platform? And more importantly: do we want to fill that platform with our thoughts, images, and conversations, knowing they might be used to train AI systems?

If this network manages to create a more positive, creative, and AI-assisted form of online interaction, it could add real value. But if it becomes just another smart data trap, filled with AI content and lacking a human soul, people will likely walk away as quickly as they arrived.


When will we hear more?

For now, nothing has been officially announced, but the direction is clear. The AI image feed on Sora seems to be the first public test. It’s likely that in the coming months, OpenAI will experiment with small features within ChatGPT itself—like sharing generated content with others—before potentially launching a separate app.

Whether this new network can truly attract users comes down to one thing: does it genuinely enhance the way we interact online? If it’s just an AI-coated version of existing networks, the hype will fade fast. But if OpenAI succeeds in giving co-creation and AI interaction a more human face, it could very well carve out a whole new kind of online space.

OpenAI bouwt aan een eigen socialmedia-platform: slimme zet of AI-hype ten top?

OpenAI bouwt aan een eigen socialmedia-platform: slimme zet of AI-hype ten top?

OpenAI – het bedrijf achter ChatGPT – werkt aan een eigen socialmedia-platform. Dat werd onlangs bekend via een reeks tweets, lekken en opvallende discussies op fora als Hacker News. Wat begon als een gerucht, lijkt inmiddels serieuzer dan gedacht. Er schijnt al een intern prototype te zijn, waarin gebruikers AI-beelden kunnen posten in een soort Instagram-achtige feed. In dit artikel duik ik er op in!

Mijn eerste vraag was waarschijnlijk net als vele anderen: waarom zou een AI-bedrijf zich in hemelsnaam storten op een toch al overvolle markt van sociale netwerken? Is dit een briljant strategisch idee, of een dure afleiding van waar het écht om draait? De eerste signalen van dit plan kwamen van The Verge, dat meldde dat OpenAI werkt aan een sociaal platform waarbij beeldgeneratie via ChatGPT centraal staat.

Denk: je maakt een Ghibli-achtige AI-afbeelding, klikt op ‘post’, en deelt het met je volgers in een feed. Sam Altman, CEO van OpenAI, zou achter de schermen al feedback verzamelen van vertrouwelingen over het idee.

Dat Altman hierover nadenkt, is eigenlijk geen verrassing. Al in februari reageerde hij op een bericht over Meta’s AI-plannen met de woorden: “Ok fine maybe we’ll do a social app.” Het klonk toen nog als een losse grap, maar inmiddels lijkt het een serieuze strategie. Combineer dat met het feit dat OpenAI al experimenteert met een publieke AI-feed op Sora.com, en het plaatje begint te kloppen.

Waarom dit wél een goed idee kan zijn

De afgelopen dagen heb ik talloze fora als Reddit en Hackenews gelezen, om eens een weloverwogen mening te krijgen over dit plan. Toegegeven, er zitten heel wat interessante kanten aan.

1. Vers bloed in de data

OpenAI heeft continu nieuwe, échte gebruikersdata nodig om zijn modellen te verbeteren. En nu steeds meer data op het internet óf achter betaalmuren verdwijnt, óf besmet raakt met AI-gegenereerde content, is een eigen datastroom goud waard. Een sociaal netwerk waarbij mensen zelf actief posten, reageren en delen, biedt precies dat.

2. Creatieve co-creatie

In plaats van eindeloze ruzies over politiek of virale filmpjes, kan een AI-gedreven platform juist draaien om expressie en creativiteit. Denk aan posts die zijn ontstaan uit een samenwerking tussen mens en machine. Dat is een ander uitgangspunt dan bestaande netwerken en potentieel verfrissend.

3. Altijd een digitale sparringpartner

Stel je voor: een platform waar je een gedachte typt, en de AI helpt je het scherper, visueler of interessanter te maken. Dat is geen social media zoals we die nu kennen, dat is een persoonlijke assistent in je contentproces. Daar zit potentie. Dat zie je nu bijvoorbeeld ook al gebeuren bij kanalen als Instagram en Whatsapp, waar dit soort functies worden toegevoegd.

Een nieuw netwerk… of een herhaling van fouten uit het verleden?

Maar er zijn ook genoeg redenen, waarom dit kan uitlopen op een tweede Google Plus-momentje.

1. De verzadigde markt

We hebben al X (voorheen Twitter), Threads, Mastodon, Bluesky, Reddit, Discord, Instagram… de lijst is eindeloos. Waarom zouden gebruikers nóg een netwerk moeten omarmen, zeker als het (deels) bevolkt wordt door bots? Ik merk het ook al bij mezelf, dat ik juist in aantal actieve kanalen ben gedaald, om meer focus te krijgen.

2. AI als sociale illusie

Een netwerk vol posts van en gesprekken met AI’s klinkt misschien fascinerend, maar voelt in mijn optiek ook snel hol aan. Veel mensen waarderen sociale netwerken, omdat er echte mensen achter zitten. Als die menselijke laag ontbreekt, blijft er in mijn optiek weinig emotionele waarde over.

3. Privacy en vertrouwen

OpenAI ligt nu al onder vuur vanwege het gebruik van trainingsdata zonder duidelijke toestemming. Als het bedrijf straks ook je sociale posts meeleest – al dan niet met toestemming – hoe transparant en eerlijk blijft dat? En wie bepaalt eigenlijk wat je wél of niet mag delen op een netwerk gebouwd door een AI-bedrijf?

4. Verlies van focus bij OpenAI

Als ik even mijn startup-coach-pet opzet: OpenAI is in de kern een AI-onderzoeks, en productbedrijf. Door nu ook een sociaal netwerk te bouwen, inclusief moderatie, growth hacking, community building en alles wat daarbij komt kijken, dreigt het bedrijf zich te vertillen. Resources die nu naar fundamentele AI-ontwikkeling gaan, kunnen versnipperen over een project dat ver buiten hun oorspronkelijke expertise ligt. In een markt waar concurrentie op modelkwaliteit, betrouwbaarheid en snelheid toeneemt, kan dit afleiden van de kernmissie en OpenAI op achterstand zetten.

Tussen droom en datahonger

Of dit een goed idee is, hangt af van je perspectief. Voor OpenAI is het strategisch slim: het levert gebruikersdata, zichtbaarheid, en een manier om het gebruik van hun tools in het dagelijks leven verder te verankeren. Maar voor gebruikers is het spanningsveld groter. Willen we nóg een platform? En nog belangrijker: willen we dat platform vullen met onze gedachten, beelden en gesprekken, wetende dat die mogelijk meegetraind worden in een AI-systeem?

Als dit netwerk erin slaagt een meer positieve, creatieve en AI-ondersteunde vorm van online interactie te bieden, kan het in mijn optiek veel waarde toevoegen. Maar als het slechts een slimmere datafuik wordt, vol AI-content en zonder menselijke ziel, dan haken mensen net zo snel af als ze kwamen.

Wanneer gaan we meer horen?

Voorlopig is er nog niets officieel aangekondigd, maar de richting is duidelijk. De AI-image-feed van Sora lijkt een eerste publieke test. Het ligt voor de hand dat OpenAI de komende maanden experimenteert met kleine functies binnen ChatGPT zelf, zoals het delen van gegenereerde content met anderen, voordat het eventueel losgaat met een aparte app.

Of dit nieuwe netwerk daadwerkelijk gebruikers weet te binden, hangt af van één ding: voegt het écht iets toe aan hoe we nu online met elkaar omgaan? Als het blijft bij een AI-behangen variant van bestaande netwerken, zal de hype snel verdampen. Maar als het lukt om co-creatie en interactie met AI een menselijker gezicht te geven, zou OpenAI zomaar een nieuw soort online ruimte kunnen neerzetten.

Waarom ChatGPT soms onzin praat – en hoe je dat voorkomt

Waarom ChatGPT soms onzin praat – en hoe je dat voorkomt

Het gebeurt ons allemaal wel eens: je stelt een vraag aan ChatGPT, krijgt een antwoord, maar na wat verder nadenken blijkt het gewoon niet te kloppen. Wat is er aan de hand, en hoe kunnen we ervoor zorgen dat de antwoorden die we krijgen betrouwbaarder zijn? Het is en blijft een van de meest besproken topics in mijn AI trainingen, dusduik ik in deze nieuwsbrief in de wereld van AI-hallucinaties, en hoe we deze kunnen voorkomen.

Hoe werkt GPT ook alweer?

ChatGPT is een taalmodel ontwikkeld door OpenAI. Het werkt door te voorspellen welk woord volgt op het vorige in een tekst, gebaseerd op enorm veel data. Maar, in tegenstelling tot mensen, begrijpt ChatGPT niet echt wat het zegt. Het is als een slimme robot die tekst na-aapt zonder de betekenis erachter te begrijpen. Dit is zowel een kracht als een zwakte van AI. Het maakt ChatGPT creatief, maar soms ook onnauwkeurig.

Maar hoe maakt het dan fouten?

Volgens een studie uit januari 2025, komt ongeveer 1,8% van de antwoorden van GPT-4 onterecht over, zoals feitelijke onjuistheden of hallucinaties, vooral in meer technische domeinen. (Vectara, 2025) De cijfers variëren echter sterk per model en toepassing. In sommige gespecialiseerde domeinen zoals wetgeving of medische zaken, kunnen de hallucinaties oplopen tot 50% van de tijd. (Nature, 2025) Dus, hoewel het model indrukwekkend is, kan het nog steeds veel fouten maken.

AI-hallucinaties kunnen ernstige gevolgen hebben, vooral wanneer mensen vertrouwt worden op verkeerde informatie:

  1. De ‘moordenaar’ die geen moordenaar was
    Een Noorse gebruiker ontdekte dat ChatGPT hem beschreef als een veroordeelde moordenaar van zijn kinderen, terwijl dit volledig verzonnen was. De schade aan zijn reputatie was enorm, en de zaak leidde tot een klacht bij de autoriteiten. 
  2. De niet-bestaande rechtszaak
    In 2023 gebruikte een Amerikaanse advocaat ChatGPT om juridische referenties te vinden, maar het model gaf hem foutieve juridische cases. Deze “foutieve” bronnen werden uiteindelijk gebruikt in een rechtszaak, wat leidde tot boetes voor het indienen van onjuiste informatie.
  3. Verkeerde medische informatie
    In medische toepassingen kan het model soms verkeerde diagnostische informatie geven, wat ernstige gevolgen kan hebben voor patiëntenzorg. Medische professionals hebben gemeld dat AI-hallucinaties hun werk bemoeilijken, vooral bij het stellen van diagnoses.
  4. Feitelijke fouten in wetenschappelijke literatuur
    Een 2024-studie toonde aan dat ChatGPT, wanneer het werd gevraagd naar wetenschappelijke artikelen, regelmatig foutieve auteurs en publicatiejaren vermeldde. Dit is niet alleen verwarrend, maar kan ook de wetenschappelijke integriteit schaden. 
  5. Verkeerde samenvattingen in nieuws
    AI-modellen werden gebruikt om nieuwsartikelen samen te vatten, maar gaven vaak onjuiste of misleidende informatie. Dit leidde zelfs tot een rechtszaak tegen OpenAI voor het verspreiden van valse informatie via ChatGPT. 

Hoe voorkom je dat ChatGPT onzin praat?

Gelukkig zijn er manieren om deze fouten te minimaliseren. 
Een aantal tips die ik altijd mee geef in mijn AI-trainingen:

  1. Wees duidelijk en specifiek in je prompts
    Hoe specifieker je vraagt, hoe groter de kans op een correct antwoord. In plaats van “Vertel me iets over de aarde”, kun je beter vragen “Waarom is de lucht blauw?” Dit dwingt ChatGPT om de context goed te begrijpen.
  2. Gebruik Chain-of-Thought (COT) redeneren
    Door ChatGPT stap voor stap te laten nadenken, kun je de kans op fouten verkleinen. Vraag bijvoorbeeld eerst: “Wat is de lucht?” en laat het model verder redeneren naar het specifieke antwoord. Dit helpt het model om complexere antwoorden te geven zonder in de war te raken.
  3. Controleer de feiten
    Zelfs de beste AI-modellen kunnen fouten maken. Controleer altijd belangrijke informatie met betrouwbare externe bronnen zoals nieuwswebsites of wetenschappelijke publicaties. Een simpele zoekopdracht kan soms wonderen doen.
  4. Gebruik Retrieval-Augmented Generation (RAG)
    Deze techniek maakt gebruik van externe databronnen, zoals wetenschappelijke databases of juridische documenten, om de antwoorden van AI te valideren en te verbeteren. Het is vooral handig in domeinen die afhankelijk zijn van precisie, zoals de geneeskunde of wetgeving. (nature.com)

De technologie blijft zich snel ontwikkelen. Er worden steeds meer technieken ontwikkeld om AI-hallucinaties te verminderen. Sommige AI-modellen worden bijvoorbeeld getraind om een soort ‘zelfreflectie’ toe te passen en hun antwoorden af te stemmen op de betrouwbaarheid van hun kennis. Ook wordt er steeds vaker gebruikgemaakt van fact-checking systemen die helpen om de waarheid te verifiëren. 

Maar zelfs met deze verbeteringen blijft het een uitdaging om volledig foutloze AI te creëren. Daarom is het belangrijk om altijd kritisch te blijven en AI als hulpmiddel te gebruiken, niet als de ultieme bron van waarheid.

Iedereen kan nu een deepfake maken – maar kun jij het herkennen? (3 tips)

Je hebt geen studio nodig. Geen green screen. Geen acteur. En geen Hollywood-budget. Alleen een paar foto’s, een script, en een paar klikken. In nog geen 10 minuten kun jij vandaag een deepfake maken die zó echt lijkt, dat zelfs je moeder erin trapt. 

Klinkt als sciencefiction of enkel voor tech experts? Nope. Het is 2025. En de tools zijn gewoon te koop. Neem bijvoorbeeld HeyGen. Je uploadt een foto, typt een tekst in, kiest een stem – en binnen een paar minuten praat jouw gezicht met jouw stem. Of iemand anders’ gezicht met jouw stem. Of jouw gezicht met iemand anders’ stem. You get the idea. Dat gebeurde laatst bijna bij de moeder van een vriend van mij. Zij dacht dat haar zoon belde. Maar het bleek een scammer te zijn, die zijn stem had gekloond. 

Of Synthesia. Daar kies je uit een hele galerij aan menselijke avatars. Upload je script en… klaar. Jij of iemand anders staat daar ineens een perfect gearticuleerde video toe te spreken – in 40 talen, met natuurlijke mimiek en oogbewegingen.

Wil je nog een stapje verder? DeepFaceLab laat je gezichten 1-op-1 verwisselen in bestaande video’s. Denk aan een filmfragment, een interview of een toespraak. Vervang het gezicht, pas de stem aan, en klaar ben je.

En het blijft niet bij video. GPT-modellen kunnen nu zelfs geloofwaardige valse documenten maken. In India is onlangs ontdekt dat je met simpele prompts nepaadhaar- en PAN-kaarten kon genereren — het digitale identiteitsbewijs waar miljoenen mensen op vertrouwen. Een ramp in wording voor digitale fraude.

Dat klinkt heftig. En dat ís het ook. Want dit is geen toekomstmuziek meer.

Ferrari beleefde vorig jaar bijna z’n eigen deepfake-crisis. Een nep-CEO belde medewerkers met een nagemaakte stem, en vroeg om gevoelige informatie. Het klonk zó echt dat de alarmbellen pas laat gingen rinkelen. Uiteindelijk werd de oplichter ontmaskerd, maar het had net zo goed fout kunnen aflopen.

Ook in Nederland neemt het aantal deepfake-fraudes snel toe. Volgens een recent onderzoek van Nederland Digitaal zijn valse video’s, stemmen en identiteitsbewijzen in opmars als fraudemiddel. Criminelen gebruiken AI om geloofwaardige leugens te fabriceren — en bedrijven én burgers trappen erin. We hebben het niet meer over phishing-mails met spelfouten, maar over hyperrealistische CEO’s die je bellen met een dringend verzoek.

Dus: wat kun je doen?

Eén: Check de bron. Als je een video of stem hoort met een opvallend verzoek, neem altijd apart contact op via een ander kanaal. Geen WhatsApp, maar een belletje. Geen mail, maar een videocall.

Twee: Let op het onmenselijke. Deepfakes zijn goed, maar nog niet perfect. Let op rare knipperpatronen, houterige gezichtsbewegingen of emoties die nét niet kloppen. Bij stemdeepfakes: een monotone toon, onlogisch ritme, of opvallend slechte geluidskwaliteit zijn rode vlaggen.

Drie: Train je team. Of je nu ondernemer bent, HR’er of finance professional: zorg dat je collega’s weten wat deepfakes zijn en hoe ze klinken of eruitzien. Een klein stukje awareness kan duizenden euro’s of je reputatie schelen.

De technologie is hier. De drempel is weg. En het verschil tussen echt en nep vervaagt steeds sneller.

Dus als je morgen een video ziet die “te goed is om waar te zijn”? Check even twee keer. Of drie. Want een deepfake maken… dat kan tegenwoordig iedereen. De vraag is: kun jij het nog herkennen?

Je slimste collega is geen mens (meer)

Je slimste collega is geen mens (meer)

Je kent ze wel: die slimste collega die altijd snacks meeneemt naar vergaderingen en precies weet wanneer jij even vastloopt. Maar wat als ik je vertel dat jouw meest waardevolle teamgenoot straks géén mens is… maar een AI?

Volgens een nieuwe studie van Harvard en Procter & Gamble is AI niet zomaar een slimme tool, maar een échte cybernetic teammate – een digitale collega die meedenkt, meehelpt én je gelukkiger maakt op je werk. Wacht, wat?

776 professionals deden mee aan een grootschalig experiment. Sommigen werkten alleen, anderen in duo’s. En de helft kreeg toegang tot ChatGPT-4 of GPT-4o. De resultaten? Iemand die alleen werkt mét AI presteert net zo goed als een team van twee zonder AI. Een team mét AI levert vaker top-oplossingen, werkt sneller, en schrijft méér én beter. En misschien nog verrassender: mensen voelden zich blijer, energieker én minder gestrest als ze AI gebruikten. Ja, echt.

Zonder AI bleven specialisten keurig in hun hokje: de R&D’er dacht technisch, de marketeer dacht commercieel. Maar met AI? Kregen ze ineens ideeën buiten hun eigen vakgebied. Het is alsof AI je helpt om ‘even iemand anders te zijn’ – met een bredere blik. Zelfs mensen met minder ervaring presteerden op het niveau van senior collega’s. AI maakte van ‘de junior’ ineens een expert-in-wording. En dat zorgt voor iets bijzonders: meer gelijkheid, meer samenwerking, en méér kansen.

Er zit wel een maar aan dit mooie verhaal. Want als je AI alleen gebruikt om je werk over te nemen – zonder zelf nog na te denken – dan verslapt je kritisch vermogen. Onderzoeken tonen dat wie té afhankelijk wordt van AI, minder creatief én minder scherp wordt. Dus: gebruik AI niet als kruk, maar als sparringpartner. Stel vragen, denk mee, daag het uit. Dan word jij er ook écht slimmer van.

De grote les? AI verandert niet alleen wat we doen op werk, maar hoe we samenwerken. Het is geen spreadsheet 2.0, het is een slimste collega 2.0. Een cyber-collega die niet klaagt, niet luncht, maar wél helpt om beter werk te leveren. Dus de volgende keer dat je denkt: “Kan AI dit voor me doen?” Vraag jezelf dan af: “Kan AI dit samen met mij doen?” Want misschien zit je beste collega straks… in je laptop.

5x AI als coach | zo gebruik ik ChatGPT als spiegel, tegenspeler én sparringpartner

5x AI als coach | zo gebruik ik ChatGPT als spiegel, tegenspeler én sparringpartner

Weet je wat ik het leukste vind aan AI? Dat het niet alleen slim is, maar ook verrassend goed kan coachen. Geen zweverige praat, gewoon slimme vragen, creatieve ideeën en eerlijke feedback, 24/7. Vijf voorbeelden:

5x AI als coach

1. De Reflectieve Spiegel

Aan het eind van de dag gebruik ik AI vaak als een soort digitale spiegel. Dan vraag ik bijvoorbeeld: ‘Stel me drie goede vragen om te reflecteren op mijn werkdag’, of ‘Help me begrijpen waarom ik zo heftig reageerde tijdens dat overleg.’ De antwoorden zijn vaak raak. AI stelt vragen zoals: ‘Wat had je nodig op dat moment, maar kreeg je niet?’ of ‘Wat zou je tegen een vriend zeggen in dezelfde situatie?’ Zo kom ik tot inzichten waar ik anders nooit bij stil zou staan. Even stilstaan. Even graven. En soms kom je tot iets wat echt blijft hangen.

2. De Creatieve Vonk

Als ik vastloop in een idee, een presentatie, een strategie, dan roep ik de Creatieve Vonk erbij. Stel: ik wil iets uitleggen maar het blijft saai klinken. Dan vraag ik: ‘Bedenk 10 ongewone manieren om dit onderwerp uit te leggen aan een kind van 8,’ of ‘Hoe zou een kunstenaar dit aanpakken?’ Wat eruit komt is vaak verrassend — van kinderboek-metaforen tot compleet andere invalshoeken. En eerlijk? Meer dan eens zat daar het begin van een briljant idee tussen.

3. De Gesprekssimulator

Dit is misschien wel mijn favoriet als ik me moet voorbereiden op een lastig gesprek. Bijvoorbeeld als ik een collega moet aanspreken op gemiste deadlines. Dan zeg ik tegen AI: ‘Speel die collega en reageer defensief op mijn feedback.’ Vervolgens ga ik het gesprek aan en reageert AI realistisch — met tegenwerpingen, ontwijkend gedrag, soms zelfs emotioneel. Daarna vraag ik simpelweg: ‘Wat had ik beter kunnen doen?’ en krijg ik directe, concrete feedback. Het is oefenen met impact, zonder risico.

4. De Tegendenker

Soms ben ik zó enthousiast over een nieuw idee, dat ik vergeet kritisch te kijken. Dan gebruik ik AI als tegenspeler. Ik zeg bijvoorbeeld: ‘Speel de advocaat van de duivel. Waarom is dit een slecht idee?’ Of: ‘Welke drie dingen kunnen hier volledig misgaan?’ Binnen seconden krijg ik scherpe tegenargumenten terug die me dwingen om mijn plan beter te onderbouwen. Niet altijd leuk, wél heel effectief. Vooral als je jezelf serieus wilt uitdagen.

5. De Impro-Coach

Wil je leren improviseren, beter reageren onder druk, of creatiever worden in hoe je jezelf presenteert? Dan is dit de leukste van allemaal. Ik gebruik AI dan als speelse partner. Bijvoorbeeld door te zeggen: ‘Daag me uit met een storytelling-oefening waarin ik een mop moet vertellen alsof ik een nieuwslezer ben,’ of ‘Stel me onverwachte vragen alsof ik live word geïnterviewd.’ Je komt in situaties waar je niet op voorbereid bent — en dat is precies het punt. Het scherpt je denken en maakt je losser in je spreken.

Dus… is AI een vervanger van een echte coach? Nee. Maar het is wél een waanzinnig goede aanvulling. Deze vijf types – van spiegel tot tegenspeler – helpen mij dagelijks groeien, denken, oefenen en verrassen. En het mooiste is: jij kunt dit ook. Gewoon, met een paar slimme vragen op het juiste moment. In een tool als ChatGPT of Gemini, die je gratis kan gebruiken, zonder zelfs een account aan te maken.

Mijn wekelijkse

Shot inspiratie

Elke week ontvangen 400+ mensen een shot deep-tech inspiratie. Ook ontvangen? Schrijf je hier rechts gratis in.

Ik spam nooit en gebruik het mailadres
alleen voor deze nieuwsbrief.

Copyright © 2026 Jan Scheele

Ook elke week een shot deeptech inspiratie?

Meld je aan om elk weekend een gratis shot inspiratie te ontvangen in de mailbox.

Ik spam nooit en gebruik het mailadres
alleen voor deze nieuwsbrief.

Paid Search Marketing
Search Engine Optimization
Email Marketing
Conversion Rate Optimization
Social Media Marketing
Google Shopping
Influencer Marketing
Amazon Shopping
Explore all solutions