Hoe voorkom je dat AI je dommer maakt? 6 tips

We werken sneller dan ooit, maar denken minder diep. Steeds meer onderzoek laat zien dat als we taken uitbesteden aan AI, onze mentale inspanning daalt en onze kritische controle verslapt. Bij experimenten blijkt dat mensen hun eigen AI-gegenereerde teksten nauwelijks kunnen herinneren. Ook halveert de nauwkeurigheid bij complexe taken zodra het systeem blind wordt vertrouwd.

De vraag is dus niet of AI ons productiever maakt, maar wat het met ons denkvermogen doet. En hoe je dit effect kan ondervangen. In dit artikel ga ik in op de belangrijkste tips.

De angst dat technologie ons dommer maakt, is niet nieuw

Toen Socrates het schrift bekritiseerde, waarschuwde hij dat mensen hun geheugen zouden verliezen omdat kennis buiten het hoofd werd opgeslagen. In de 15e eeuw werd de boekdrukkunst gezien als een bedreiging voor diep denken, omdat informatie plotseling massaal beschikbaar werd. Bij de opkomst van televisie in de 20e eeuw voorspelden critici een generatie met een kortere aandachtsspanne.

Bij eerdere technologische revoluties zien we zelden pure cognitieve achteruitgang. Wat we wel zien, is een verschuiving. Het schrift verminderde de noodzaak om lange teksten letterlijk te onthouden en vergrootte het vermogen tot abstract denken en complexe argumentatie. De boekdrukkunst leidde niet tot minder intelligentie, maar tot een explosie van wetenschappelijke en filosofische vooruitgang. Tegelijkertijd tonen onderzoeken rond televisie en later sociale media wel degelijk een verband met een beperkt concentratievermogen en een hogere afleidbaarheid, vooral bij intensief gebruik.

Technologie maakt ons dus niet automatisch dommer. Ze verandert welke cognitieve vaardigheden we trainen. Sommige vermogens worden minder geoefend, andere juist versterkt. De vraag bij AI is daarom niet of dit patroon zich herhaalt, maar of de schaal en snelheid dit keer fundamenteel anders zijn.

Waar snelheid schuurt met scherpte

Veel marketing- & communicatieprofessionals werken inmiddels dagelijks met AI bij het schrijven van nieuwsbrieven, campagnes, social mediaposts, blogartikelen en strategievoorstellen. Juist daar zit het risico. Als je een concepttekst, campagneopzet of doelgroepanalyse door een AI-model laat genereren, verschuift jouw rol ongemerkt van bedenker naar beoordelaar. Je denkt niet meer vanaf nul, je reageert op iets wat er al is. Dit lijkt efficiënt, maar het verkleint de kans dat je zelf nieuwe invalshoeken ontwikkelt of aannames ter discussie stelt.

Als je alle studies naast elkaar legt, zie je een duidelijk (en schrikbarend) patroon. AI maakt ons werk vaak sneller en beter, maar die winst komt meestal doordat het systeem een deel van ons denkwerk overneemt. Een MIT-studie met honderden professionals liet zien dat de proefpersonen 37 procent sneller werkten met ChatGPT en dat de kwaliteit van hun werk omhoog ging. De onderzoekers zagen ook iets anders; de professionals deden minder moeite. Ze hoefden minder diep na te denken om tot een resultaat te komen. Dit heeft consequenties voor het leervermogen.

Je ziet dit effect nog duidelijker in onderzoek onder studenten. In een experiment met 91 deelnemers gebruikten sommige studenten ChatGPT en anderen ‘gewoon’ Google (dus niet Gemini). De ChatGPT-groep voelde minder mentale belasting, het werk was makkelijker. Daar staat tegenover dat hun argumenten minder sterk waren en minder goed onderbouwd. Oftewel: het voelde beter, maar het denken werd minder diep.

Het risico van blind vertrouwen

Een ander risico bij het gebruik van AI is het blinde vertrouwen erin. In experimenten waarbij mensen keuzes moesten maken met hulp van een AI-zoekmachine, werkten de proefpersonen bijna 2 keer zo snel. Ze stelden minder vragen. Maar bij moeilijke taken zakte de nauwkeurigheid naar 26 procent als AI geen duidelijk signaal gaf over onzekerheid van het antwoord. Toen onderzoekers onzekerheidsmeldingen toevoegden, steeg de nauwkeurigheid naar boven de 50 procent. Dat laat zien hoe snel we geneigd zijn AI blindelings te volgen zonder extra controle.

Ook in het onderwijs zie je dit effect inmiddels terugkomen. In een studie naar natuurkundeproblemen nam bijna de helft van de studenten een fout AI-antwoord klakkeloos over. Veel deelnemers kopieerden hun vraag direct in ChatGPT en dachten minder zelf na. Ik vind dit een zorgelijke ontwikkeling, want juist bij moeilijke vraagstukken leer je door zelf te worstelen.

In organisaties speelt nog een ander risico. Onderzoekers van Harvard Business School en Boston Consulting Group ontdekten dat mensen beter presteren met AI binnen een kennisgebied waarin het model sterk is. Valt een taak net buiten dat gebied? Dan maken gebruikers van AI meer fouten, terwijl ze wel sneller blijven werken. Dat is gevaarlijk. Je gaat sneller vooruit, maar wellicht niet in de juiste richting.

Ook ons brein krijgt het te verduren. Een recente studie met hersenmetingen laat zien dat mensen minder brede hersenactiviteit laten zien wanneer ze schrijven met hulp van een Large Language Model (LLM). Overigens is dit onderzoek nog niet definitief en wordt het ook bekritiseerd. Wat we wel zeker weten, is dat minder actieve inspanning vaak betekent dat informatie minder goed blijft hangen.

Als je alles samenneemt, ontstaat er wel echt een nuchter beeld. AI maakt ons productiever. Tegelijkertijd vergroot het ook de kans dat we minder diep denken, minder kritisch controleren en sneller vertrouwen op een systeem dat niet altijd gelijk heeft. Het probleem zit dus niet in de technologie, maar in de manier waarop wij ermee omgaan.

Hoe ik zelf voorkom dat AI mijn denkspieren lui maakt

Bovenstaande uitdagingen kwam ik zelf een tijdje geleden al tegen en ik ben hier gelijk op gaan acteren. Ik gebruik AI namelijk elke dag, uren lang. Voor research, structuur, sparren, ideeën en meer. Maar ik wil niet dat het mijn denkwerk volledig vervangt. Daarom heb ik een paar vaste regels voor mezelf.

1. Eerst zelf denken, dan pas AI

Als ik meteen naar ChatGPT ga, voelt alles makkelijker. Maar ik merk ook dat mijn eigen redenering dan minder scherp wordt. Daarom dwing ik mezelf om eerst een ruwe outline te maken. Wat is mijn stelling? Welke argumenten heb ik? Waar twijfel ik? Pas daarna gebruik ik AI om gaten te vinden of tegenargumenten te formuleren. AI komt bij mij pas in beeld als ik zelf al heb nagedacht.

2. Gebruik AI als criticus, niet als ghostwriter

AI kan mijn eerste gedachte bevestigen en dat voelt comfortabel, maar bevestiging maakt je niet beter. Daarom vraag ik bijna altijd wat er niet klopt aan mijn redenering. Welke tegenargumenten mis ik? Waar zit een denkfout? Door het systeem mijn ideeën te laten bekritiseren, dwing ik mezelf om mijn eigen logica opnieuw testen. Dit kost meer moeite en precies dat houdt mijn denken scherp.

3. Forceer twijfel en controle

Onderzoek laat zien dat mensen sneller fouten maken als AI geen onzekerheid toont. Daarom vraag ik expliciet waar het systeem niet zeker van is: ‘welke aannames doe je?’ ‘Welke claims moet ik controleren?’ Bij belangrijke onderwerpen zoek ik altijd een tweede bron. Ik wil niet dat snelheid mijn kritische blik vervangt.

4. Laat AI helpen bij ideeën, niet bij de eindbeslissing

AI is sterk in variaties en invalshoeken. Daar gebruik ik het graag voor. Ik laat het 10 tot 20 mogelijke perspectieven of voorbeelden geven. Daarna sluit ik het venster en kies ik zelf. Ik wil voelen waarom iets klopt. Dat gevoel ontwikkel je alleen als je zelf beslist.

5. Plan AI-vrije denkblokken

Als uitbesteden altijd kan, dan doe je het ook. Dat is menselijk. Daarom plan ik bewust momenten zonder hulpmiddelen. 20 Minuten schrijven zonder AI, gewoon nadenken en formuleren. Die frictie is soms ongemakkelijk, maar juist daar ontstaan mijn beste inzichten.

6. Gebruik AI om te overhoren in plaats van te vervangen

Als ik iets echt wil begrijpen, moet ik het kunnen uitleggen. In plaats van om een samenvatting te vragen, vraag ik om kritische vragen. Of om een analyse van zwakke plekken in mijn uitleg. Zo dwing ik mezelf om kennis actief op te halen in plaats van passief te consumeren. Ik merk steeds meer dat AI gevaarlijk wordt wanneer het ongemerkt mijn denkproces vervangt. Het wordt daarentegen juist heel krachtig als het mijn denken uitdaagt.

In marketing draait concurrentie steeds minder om wie de meeste content kan produceren. Het gaat om wie juist het beste kan denken. Als iedereen met dezelfde AI modellen werkt, ontstaat er een risico op ‘strategische middelmatigheid’: campagnes die logisch klinken, maar niet echt meer onderscheidend zijn. Juist daarom is het belangrijk om AI niet in te zetten als eerste stap in je denkproces.

Als gemak structureel wordt, wie bewaakt dan onze cognitieve autonomie?

Over de toekomst zijn wetenschappers het niet volledig eens, maar 1 punt keert steeds terug in de onderzoeken die ik lees: AI zal niet verdwijnen uit ons denkproces, het zal er steeds dieper in verweven raken. Het gaat dus niet om de vraag of we ermee werken, maar hoe we ermee werken. Economische studies laten zien dat generatieve AI productiviteit structureel kan verhogen, vooral bij kenniswerk en bij minder ervaren professionals. Organisaties als de OECD verwachten dat AI werkprocessen blijvend verandert, met meer nadruk op toezicht, controle en samenwerking tussen mens en machine. Dit betekent dat de rol van de mens verschuift van uitvoerder naar beoordelaar en beslisser. Tegelijk waarschuwen onderzoekers voor een zogenoemd leergat. Als basisvaardigheden zoals schrijven, redeneren of analyseren minder worden geoefend, kan er een generatie ontstaan die sterk is in het aansturen van AI, maar zwakker in zelfstandig denken. Zeker bij jongeren, waarvan het brein nog in ontwikkeling is, wordt dat als een reëel risico gezien.

De vraag voor de komende decennia is daarom niet of AI slimmer wordt dan wij. De echte vraag is of wij blijven investeren in onze eigen cognitieve autonomie. Ik zie AI niet als vijand van ons brein, maar het is ook geen neutraal hulpmiddel. Het versterkt wat wij ermee doen. Gebruik je het om sneller klaar te zijn, dan word je efficiënter. Gebruik je het om frictie te vermijden, dan train je minder. Zet je het in om je denken uit te dagen, dan kan het juist een katalysator zijn voor groei.

Zoals ik het zie is de echte vaardigheid in het gebruik van AI niet optimaal leren prompten. Het gaat om kiezen wanneer je dit juist niet doet. Cognitieve autonomie is geen luxe, het is een belangrijke discipline. Niet omdat AI ons dom maakt, maar omdat gemak altijd de neiging heeft om ons minder scherp te maken. Terwijl de toegevoegde waarde van marketing- & communicatieprofessionals in mijn optiek juist steeds meer zal liggen in het kritisch kunnen beoordelen, uitdagen en sturen van AI-gegenereerde ideeën.

Na ‘dark factories’ zien we nu ‘zero human companies’ ontstaan: ben jij daar als leider klaar voor?

Stel je voor dat je ’s ochtends wakker wordt en ziet dat je bedrijf ’s nachts een nieuw product heeft gelanceerd. De website staat online, de marketingcampagne draait al en de eerste betalingen zijn binnen. Het bijzondere: niemand heeft eraan gewerkt.

Dit klinkt futuristisch, maar het idee van zogenoemde zero-human companies zie ik steeds vaker op te duiken in de techwereld. Bedrijven waarin AI-agents vrijwel alle operationele taken uitvoeren. Marketing, productontwikkeling, klantenservice, administratie. Alles wordt gedaan door software die met elkaar samenwerkt. De menselijke rol verdwijnt daarbij niet, maar verschuift. Minder uitvoeren, meer sturen.

De eerste voorbeelden laten zien hoe snel dit zich een beetje ontwikkelt. Ondernemer Nat Eliason experimenteerde met een AI-agent die toegang kreeg tot zijn website, e-mail en betaalomgeving. Hij gaf het systeem een simpele opdracht: maak een product en probeer het te verkopen. De agent bouwde vervolgens een website, maakte een digitaal product en zette een betaalpagina op. Het systeem liep uiteindelijk vast op een technische beperking, maar had vrijwel het hele proces zelfstandig uitgevoerd.

In andere experimenten werken meerdere AI-agents samen alsof het een managementteam is. Eén agent analyseert kansen in de markt, een andere bouwt het product, een derde verzorgt marketing en een vierde bewaakt de kwaliteit. Een soort digitale directiekamer.

Ik ben hierdoor wel echt mega gefascineerd. AI-agents werken namelijk 24 uur per dag. Ze kunnen meerdere taken tegelijk uitvoeren en duizenden kleine beslissingen automatiseren. Wat vroeger een team van specialisten nodig had, kan in theorie door een netwerk van software worden gedaan. Groei hoeft niet langer automatisch te betekenen dat je meer mensen moet aannemen. ik lees ook steeds meer de voorspelling dat het niet langer duurt, voordat we een unicorn hebben met 1 medewerker.

Toch is het verhaal wel echt een stuk complexer en de realiteit rommeliger. Experimenten laten zien dat AI-agents elkaar verkeerd kunnen begrijpen, verkeerde aannames kunnen doen of beslissingen nemen die logisch lijken voor een algoritme maar niet voor een organisatie.

Wanneer meerdere systemen tegelijk handelen ontstaat al snel verwarring. Taken worden dubbel uitgevoerd, doelen botsen of processen lopen vast. Daar ligt in mijn optiek de echte uitdaging van deze nieuwe bedrijven. Niet de technologie zelf, maar de coördinatie.

Veel leiders kijken naar AI vanuit efficiëntie: hoe kan deze technologie werk sneller of goedkoper maken? Zero-human companies laten een andere vraag zien.

Wat gebeurt er als een organisatie steeds minder draait om mensen die taken uitvoeren, en steeds meer om systemen die taken uitvoeren? De rol van leiderschap verschuift dan ook in mijn optiek.

Leiders worden minder managers van werk en meer ontwerpers van systemen. Je bepaalt niet alleen wat er moet gebeuren, maar ook hoe digitale teams samenwerken, welke beslissingen ze mogen nemen en waar grenzen liggen. Strategie wordt dan belangrijker dan de uitvoering. Ook verantwoordelijkheid verandert. Als een AI-systeem een fout maakt, ligt de verantwoordelijkheid uiteindelijk nog steeds bij de organisatie en haar leiders.

Misschien is de grootste verandering wel conceptueel. We zijn gewend om bedrijven te zien als groepen mensen die samenwerken. Maar in de komende jaren kunnen er steeds meer organisaties ontstaan waarin software een groot deel van die samenwerking overneemt. Dat betekent dat leiders niet alleen teams aansturen, maar ook systemen ontwerpen.

De komende jaren voorspel ik dan ook, dat we de eerste bedrijven zien verschijnen die grotendeels door software worden gerund. Sommige zullen mislukken, andere zullen verrassend succesvol blijken. De interessante vraag is dus niet alleen of het kan… maar; als organisaties steeds digitaler worden, wat wordt dan jouw rol als leider?

Hoe ga ik AI-workslop tegen; 3 regels

Afgelopen week was ik meer tijd bezig met workslop te corrigeren, dan dat gebruik van AI mij tijdswinst gaf. Drie regels die ik heb gesteld om dit tegen te gaan

Ik ben er wel een beetje klaar mee. AI zou tijd vrijmaken. In plaats daarvan corrigeer ik steeds vaker documenten die eruitzien als werk, maar het niet zijn. Strak geformuleerd. Logisch opgebouwd. Maar zonder echte analyse, zonder scherpe keuzes, zonder verantwoordelijkheid voor de inhoud.

Wat er dan gebeurt is fundamenteel: het denkwerk verschuift. Niet naar de machine, maar naar degene die het ontvangt. Die moet checken, herinterpreteren, herschrijven. Workslop automatiseert geen arbeid, het externaliseert verantwoordelijkheid.

Onderzoek laat zien dat ongeveer 40 procent van de werknemers dit herkent. Per incident kost het bijna twee uur herstelwerk. De financiële schade is aanzienlijk, maar de relationele schade is groter. Ontvangers beoordelen afzenders vaker als minder creatief, minder capabel, minder betrouwbaar. Vertrouwen slijt.

Toch is dit in mijn optiek zelden pure luiheid. Het is systeemdruk. Leiders voelen druk om AI te implementeren. Teams voelen druk om te leveren. Als de boodschap dan wordt: gebruik AI overal, dan ontstaat performatief gebruik. Niet: waar voegt dit waarde toe? Maar: hoe laat ik zien dat ik het gebruik?

Dat is geen AI-probleem. Dat is een leiderschapsvraagstuk. In mijn eigen werk probeer ik drie simpele maar harde regels te hanteren.

1) AI mag helpen bij vorm, nooit bij verantwoordelijkheid. Als je iets aanlevert, ben jij eigenaar van de inhoud. Ik stel altijd de vraag: als ik je nu doorvraag, kan je dit verdedigen zonder naar de tool te wijzen?

2) geen output zonder expliciete context. Ik wil weten wat de opdracht was, wat je AI precies hebt gevraagd, en wat jij hebt aangepast. Dat dwingt tot nadenken. Transparantie is geen zwakte, het is kwaliteitsborging.

3) AI is een versneller van scherpte, niet van volume. Liever één pagina met echte keuzes dan tien pagina’s generieke perfectie. Ik stuur vaker terug met één zin: wat is hier de kernbeslissing?

Sinds ik dat expliciet maak, zie ik verschil. Minder ruis. Meer eigenaarschap. Betere gesprekken.

AI kan productiviteit verhogen, daar twijfel ik niet aan. Maar alleen als kwaliteit georganiseerd wordt. Zonder duidelijke normen verdwijnt snelheid in rework. Zonder vertrouwen wordt samenwerking stroef. Zonder eigenaarschap wordt AI een alibi.

Workslop is in mijn optiek dus geen bewijs dat AI faalt. Het is bewijs dat we nog niet volwassen omgaan met wat het betekent om samen te werken met machines.

AI kan echt prachtig versnellen. Maar alleen als leiders de moed hebben om traagheid toe te laten waar denken nodig is.

AI maakt van ons opnieuw Luddieten, maar dit keer om de juiste redenen

Afgelopen week vroeg iemand na mijn lezing of we niet gewoon weer een generatie Luddieten aan het creëren zijn, mensen die vooruitgang niet begrijpen. Daar zit echt iets ongemakkelijks in; hoe snel we iemand vandaag een “luddiet” noemen.

Het klinkt namelijk als een verwijt. Alsof kritiek op AI neerkomt op angst voor vooruitgang. Historisch is dat een karikatuur. De Luddieten van 1811 waren geen mensen die de toekomst niet begrepen. Het waren geschoolde wevers die zagen hoe hun vak werd gereduceerd tot een kostenpost. Machines produceerden sneller en goedkoper. Fabriekseigenaren verdienden. De wever verloor zijn autonomie, zijn inkomen, zijn waardigheid.

Hun woede richtte zich niet op het rad of de stoom. Ze saboteerden specifieke eigenaren die lonen drukten en kwaliteit negeerden. Dat detail verdwijnt vaak uit het verhaal.

De discussie rond AI rijmt daar opvallend mee. Veel ontwerpers en schrijvers zijn niet tegen technologie. Ze gebruiken haar dagelijks. Hun zorg gaat over training op hun werk zonder toestemming. Over een markt die overspoeld raakt met “goed genoeg”. Over macht die zich concentreert bij een handvol bedrijven.

Onderzoek laat zien dat generatieve AI de productiviteit verhoogt, soms met 20 tot 40 procent in bepaalde taken. De vraag is alleen: wie profiteert structureel van die winst? De maker, of vooral het platform?

De Luddite Fallacy leert ons dat technologie op lange termijn nieuwe banen schept. Dat is waar op macroniveau. Voor het individu dat nu terrein verliest, voelt die belofte abstract.

Misschien is de echte scheidslijn niet tussen voor of tegen AI. Misschien gaat het om iets anders: accepteren we dat technologische vooruitgang neutraal is, of durven we opnieuw te vragen aan wie zij uiteindelijk verantwoording verschuldigd is?

De machine slimmer dan de mens… so what?

De vraag of een machine slimmer kan worden dan de mens klinkt als sciencefiction. Toch gaat het debat allang niet meer over fantasie. Het gaat over macht, verantwoordelijkheid en de inrichting van organisaties.

Het blijft echt een vraag die ik vaak krijg na lezingen, vaak gesteld met een angstige stem. Wat verandert er echt als systemen niet alleen ondersteunen, maar beter worden in denken dan wij?

Op maatschappelijk niveau zie ik drie duidelijke effecten opdoemen.

Ten eerste verschuift kennis van iets persoonlijks naar iets schaalbaars. Waar expertise vroeger zat in hoofden van specialisten, kan die straks draaien in datacenters. Dat klinkt efficiënt, maar het verandert hoe status en invloed verdeeld zijn. Wie bezit de systemen, bezit de kennis. Dat kan ongelijkheid versterken, niet alleen tussen mensen, maar ook tussen landen en bedrijven.

Ten tweede verandert vertrouwen van karakter. We vertrouwen nu mensen met ervaring en reputatie. In een wereld waarin algoritmen betere voorspellingen doen dan experts, verschuift vertrouwen naar prestatiescores en modellen. Dat maakt besluitvorming rationeler, maar ook afstandelijker. Vertrouwen wordt meetbaar, minder relationeel.

Ten derde komt werk onder druk te staan, niet alleen in uitvoerende rollen, maar juist in kennisfuncties. Analisten, juristen, consultants, strategen. Functies die draaiden om het verwerken en combineren van informatie. Organisaties zullen zich opnieuw moeten afvragen waar menselijke waarde zit als denken goedkoper en sneller wordt.

Voor organisaties zie ik een tweede laag. Leiderschap verschuift van inhoudelijk de slimste zijn naar het kunnen duiden van uitkomsten. De vraag wordt minder: wat denk jij? En vaker: waarom volgen we dit systeem wel of niet? Dat vraagt moed. Afwijken van een model dat statistisch gelijk heeft, moet je kunnen uitleggen.

Misschien is dat de echte impact van AGI. Niet massale werkloosheid of technologische chaos, maar een herdefinitie van gezag. Slimheid wordt een commodity. Oordeel, verantwoordelijkheid en betekenis geven worden schaars.

Of machines ons werkelijk voorbijgaan, weten we niet. Dat organisaties en samenlevingen zich moeten voorbereiden op een wereld waarin intelligentie niet langer exclusief menselijk is, lijkt mij inmiddels onvermijdelijk. De vraag is niet alleen wat technologie kan, maar wie wij willen blijven als zij dat kan.

Hoe ik voorkom dat AI mij dommer maakt: vijf regels die ik heilig verklaar

Hoe ik voorkom dat AI mij dommer maakt: vijf regels die ik heilig verklaar


Angst, voor de eigen baan, voor de maatschappij… en het eigen brein. Toen ik de afgelopen week eens de meest gestelde vragen na mijn keynotes op een rij zette, sprong er één bovenuit: ‘is AI echt zo slecht voor je brein?’

Die vraag zegt in mijn optiek minder over technologie en meer over onze angst om denkvermogen kwijt te raken.

Ik zie bijna dagelijks hoe die angst wordt gevoed. Het MIT Media Lab-onderzoek ‘Your Brain on ChatGPT’ werd snel gebracht als “AI maakt je dom”. De werkelijkheid is in mijn optiek echt genuanceerder. Geen hersenschade, wel andere denkgewoonten: minder betrokkenheid, zwakker geheugen, minder eigenaarschap.

Dat patroon kennen we. Plato vreesde dat schrijven ons geheugen zou aantasten. Rekenmachines zouden ons dom maken. Smartphones onze aandacht vernietigen. Telkens bleek niet de technologie het probleem, maar hoe gedachteloos we haar gebruiken.

AI is anders omdat ze zo verleidelijk goed is in alles. Schrijven, samenvatten, analyseren, brainstormen. Daardoor ontstaat het risico van wat ik voor mezelf een AI-brein noem: niet minder intelligent, wel minder scherp. Minder frictie, minder worsteling, minder eigen perspectief.

Onderzoek bevestigt dat risico én de nuance. Scholieren die GPT zonder begeleiding gebruikten, scoorden later 17 procent lager. Tegelijkertijd laten studies van de The World Bank, Harvard University en Stanford University zien dat AI enorme leerwinst kan opleveren, mits ingezet als tutor en niet als antwoordenmachine.

Het verschil zit hem in mijn optiek dus niet in AI, maar in hoe je haar inzet. Dit zijn de regels die ik zelf hanteer om scherp te blijven:

1) Ik denk vóór ik prompt
Voordat ik AI open, schrijf ik eerst mijn eigen standpunt of vraag op. Soms rommelig, soms half. Pas daarna mag AI meedenken. Nooit andersom.

2) Ik schrijf altijd eerst zelf
Elke tekst begint zonder AI. Pas als er een volledige eerste versie staat, gebruik ik AI als redacteur, nooit als auteur.

3) Ik los niet alles meteen op
Als iets schuurt, laat ik het liggen. Geen snelle samenvatting, geen directe AI-oplossing. Ik dwing mezelf om langer in onzekerheid te blijven.

4) Ik kies bewust voor minder
Ik bepaal elke week twee of drie dingen die echt tellen. Ideeën die “wel leuk” zijn, laat ik liggen, ook als AI ze snel uitvoerbaar maakt.

5) Ik plan menselijke frictie in
Elke dag tijd zonder scherm. Elke week fysieke inspanning. Zo vaak mogelijk echte gesprekken in plaats van calls. Dit staat letterlijk in mijn agenda.

AI beschadigt je hersenen niet. Onbewust gebruik kan wel je denkgewoonten afvlakken. De echte vraag is dus niet wat AI met ons brein doet, maar welke delen van ons denken we vrijwillig uitbesteden.

Steeds meer leiders missen strategische fluency rondom technologie. Zo herken je het en zo pak je het aan

In 1961 stond John F. Kennedy voor een groep ingenieurs bij NASA. De Verenigde Staten liepen achter in de ruimtewedloop en de technische onzekerheden waren enorm. Toch ging het in zijn woorden nauwelijks over raketten of berekeningen.

Hij sprak over richting. Over het vermogen om een ambitie te formuleren die groot genoeg was om keuzes af te dwingen, ook als de weg ernaartoe nog onduidelijk was. Niet de technologie stond centraal, maar het kompas.

Die scène komt steeds vaker in me op wanneer gesprekken over AI en strategie elkaar kruisen. Niet omdat AI hetzelfde is als de NASA van toen, maar omdat de kernvraag identiek is: begrijpen leiders voldoende wat er gebeurt om scherpe keuzes te maken?

Veel van mijn klanten investeren inmiddels fors in AI. Er draaien pilots, er zijn dashboards, er wordt geëxperimenteerd met generatieve modellen. Tegelijkertijd hoor ik van veel leiders terug, dat ze het gevoel hebben dat het niet echt landt. Projecten concurreren met elkaar, teams spreken verschillende talen en bestuurders voelen zich afhankelijk van specialisten zonder zelf het overzicht te hebben. De kloof zit hem hier in mijn optiek zelden in technologie, maar bijna altijd in strategische fluency.

Strategische fluency is geen technische vaardigheid. Het is het vermogen om te begrijpen waar AI waarde kan toevoegen, waar niet, en hoe initiatieven zich verhouden tot bredere bedrijfsdoelen. Leiders met strategische fluency hoeven geen modellen te bouwen, maar kunnen wel de juiste vragen stellen. Ze zien AI niet als innovatie op zich, maar als onderdeel van een samenhangend verhaal over groei, risico en verantwoordelijkheid.

Wat daarbij opvalt, is dat veel organisaties AI benaderen alsof het een losse versnelling is. Meer data, snellere analyses, efficiëntere processen. De praktijk laat iets anders zien. AI werkt eerder als een vergrootglas. Wat strategisch helder is, wordt scherper. Wat diffuus is, wordt pijnlijk zichtbaar. Zonder duidelijke prioriteiten leidt AI tot fragmentatie, niet tot versnelling.

Hier helpt een eenvoudig denkkader: zie AI als een nieuwe medewerker aan de bestuurstafel. Een medewerker die extreem snel patronen ziet, maar geen gevoel heeft voor context, ethiek of lange termijn. Die medewerker kan briljant zijn, mits goed aangestuurd. Zonder kaders gaat hij alle kanten op. Governance is in dat beeld geen rem, maar de functiebeschrijving. Het bepaalt waar AI mag meedenken, waar besluiten vallen en wie verantwoordelijkheid draagt.

Recente analyses laten zien dat organisaties die governance vroeg betrekken bij AI-initiatieven sneller schaal bereiken en minder last hebben van versnippering. Niet omdat ze voorzichtiger zijn, maar omdat ze duidelijker zijn. Strategische fluency betekent hier: begrijpen dat snelheid zonder richting uiteindelijk vertraging oplevert.

Tegelijkertijd is er spanning. Bestuurders voelen de druk om mee te gaan, terwijl onzekerheid blijft bestaan. Wat als we kansen missen? Wat als we te veel vertrouwen op systemen die we niet volledig doorgronden? Die spanning verdwijnt niet door meer experimenten, maar door beter strategisch gesprek. AI dwingt leiders om explicieter te worden over aannames, waarden en keuzes. Dat is ongemakkelijk, maar ook gezond.

Wat nu al zichtbaar is, is dat de meest succesvolle AI-toepassingen voortkomen uit organisaties waar strategie geen jaarlijks document is, maar een continu gesprek. Daar wordt AI niet ingezet om beslissingen te automatiseren, maar om besluitvorming te verrijken. Scenario’s worden scherper, trade-offs explicieter, en blinde vlekken sneller herkend.

Strategische fluency vraagt daarom iets fundamenteels van leiderschap. Minder leunen op controle, meer op begrip. Minder focus op tools, meer op samenhang. Het is het verschil tussen vragen wat AI kan, en vragen wat wij willen dat het doet.

In een tijd waarin technologie sneller beweegt dan organisaties, is strategische fluency in mijn optiek geen luxe, maar een vorm van volwassenheid. De vraag die blijft hangen is eenvoudig, maar niet gemakkelijk: als iemand vandaag met frisse ogen naar jouw AI-initiatieven kijkt, zien zij dan richting, of vooral activiteit?

[3x deep] Internet van hersenen, Apple AI Pin en verzekering voor autonoom rijden

In deze editie verkennen we drie uiteenlopende bewegingen: van grenzen tussen lichaam en internet tot hardware die onze relatie met AI kan veranderen, en een risico-product dat de verzekeringswereld aan het verschuiven brengt.

Internet of brains
Er ontstaat een ambitieus project dat verder gaat dan wearables en sensoren: een open netwerk dat hersensignalen koppelt aan applicaties op EEG-apparaten. Initiatieven zoals Elata Biosciences bouwen open infrastructuur waarin ontwikkelaars zonder gespecialiseerde kennis zelf “neuro-apps” kunnen maken en zo toepassingen voor spel, onderzoek en mogelijk welzijn verkennen. Dit past in bredere onderzoeksprogramma’s rond de zogenaamde Internet of Brains, die willen dat mensen via hersensignalen systemen aansturen en fysiek beperkte interacties overstijgen. Dergelijke systemen roepen veel vragen op rond ethiek, privacy en betrouwbaarheid van interpretatie van hersendata, maar bieden tegelijk nieuwe perspectieven voor medicinale en creatieve toepassingen.  

De Apple pin
Apple werkt volgens bronnen aan een klein draagbaar apparaatje met AI-capaciteit, camera’s, microfoons en speaker in een vorm die doet denken aan een AirTag. Het idee is dat dit een nieuwe toegang tot AI-assistentie biedt, los van telefoon of horloge en mogelijk al in 2027 verschijnt. Geruchten wijzen erop dat spraakinteractie centraal staat en dat de hardware past binnen bredere AI-ambities van het bedrijf. Dit product komt op een markt waar eerdere pogingen, zoals die van Humane, gemengde resultaten lieten zien: mooie concepten maar beperkte impact en acceptatie. De uitdaging voor Apple zal zijn om waarde te leveren zonder een extra gadget te creëren waarvan de praktische bruikbaarheid beperkt blijft.  

De eerste verzekering voor zelfrijzende apparaten
In de VS introduceert verzekeraar Lemonade een nieuwe polis gericht op Tesla’s Full Self-Driving (FSD) systeem die de premies per gereden kilometer met circa 50 procent kan verlagen als de auto in de semi-autonome modus rijdt. Dit is mogelijk doordat de verzekeraar via toegang tot voertuigdata precies kan onderscheiden welke kilometers met FSD zijn gereden. Traditioneel zijn autonome voertuigen lastig te verzekeren vanwege onzekere risico’s, maar data-gestuurde modellen kunnen dat perspectief verschuiven. Tesla’s FSD blijft volgens regelgevers een assistentiesysteem dat menselijke supervisie vereist, en veiligheidsexperts houden enige scepsis over het echte effect op ongelukken.  

Diamantorganisaties en centaur teams: zo snel verandert werk nu door technologie

Diamantorganisaties en centaur teams: zo snel verandert werk nu door technologie

AI verandert steeds meer bedrijven op twee manieren tegelijk. De vorm van organisaties verschuift van piramide naar diamant. Minder brede onderkant, meer zwaarte in het midden. Taken die vroeger leerwerk waren, zoals eerste analyses, samenvattingen en controles, worden steeds vaker door systemen opgepakt. Wat overblijft, is werk dat vraagt om context, afweging en verantwoordelijkheid. Daardoor wordt het midden van de organisatie belangrijker dan ooit.

Tegelijk verandert de manier waarop teams werken. Steeds vaker ontstaan centaur teams: mensen en AI die samen één taak uitvoeren. Mensen bepalen richting, betekenis en grenzen. AI verkent opties, rekent door, vergelijkt patronen en versnelt het proces. Dat kan tot betere besluiten leiden, niet omdat AI slimmer is, maar omdat het menselijk oordeel wordt ondersteund door meer perspectief en snelheid.

Hier ontstaat ook spanning. De diamant roept de vraag op waar talent zich nog ontwikkelt als instapwerk verdwijnt. Wie leert het vak, wie maakt fouten, wie groeit door. De centaur roept een andere vraag op: wie blijft wakker als systemen steeds overtuigender klinken. Automatisering helpt, maar eigenaarschap kan niet worden geautomatiseerd.

Wat ik zie bij leiders die hier bewust mee bezig zijn, is dat het gesprek verschuift. Minder focus op efficiency alleen, meer aandacht voor hoe besluiten tot stand komen. Minder praten over tools, meer over verantwoordelijkheden, toezicht en professionele oordeelsvorming. AI wordt dan geen trucje, maar een vast onderdeel van hoe teams denken en werken.

Dit is geen verre toekomst. Deze herontwerpen gebeuren nu. In advies, finance, overheid, marketing, zorg. Minder lagen, andere rollen, nieuwe combinaties van mens en technologie. Wie dit reduceert tot kostenbesparing, mist de kern. Het gaat over hoe organisaties slimmer, zorgvuldiger en consistenter kunnen beslissen in een wereld die sneller beweegt.

Misschien is dat de echte leiderschapsvraag van dit moment: als je organisatie een diamant wordt en je teams steeds meer op centaurs lijken, waar borg je dan menselijk oordeel, vakmanschap en moreel kompas in besluiten die steeds sneller genomen worden?

Workslop: als AI werk vergroot en samenwerking onder druk zet

Workslop: als AI werk vergroot en samenwerking onder druk zet

Ik merk de laatste tijd een specifiek patroon in werk dat ik ontvang. Bijna elke dag. Van klanten, medewerkers, zakenpartners… bijna iedereen. Het ziet er verzorgd uit, leest soepel en lijkt af. Toch blijft na het lezen een ongemakkelijk gevoel hangen: dit helpt me niet verder. Het voelt niet fout, maar leeg.

Dat gevoel blijkt opvallend goed te corresponderen met wat onderzoekers inmiddels “workslop” noemen. In recent onderzoek onder ruim duizend fulltime werknemers zegt 40% dat zij in de afgelopen maand AI-gegenereerd werk ontvingen dat professioneel oogt, maar inhoudelijk weinig bijdraagt. Respondenten schatten dat ongeveer 15% van alle werkcontent die zij ontvangen hieronder valt. Dat is geen randverschijnsel meer, dat is structureel.

De impact zit vooral in wat erna komt. Gemiddeld kost het bijna twee uur om één geval van workslop te herstellen: herlezen, interpreteren, corrigeren, opnieuw maken. Omgerekend betekent dat een verborgen kostenpost van ongeveer 186 dollar per medewerker per maand. Voor een organisatie van 10.000 mensen loopt dat richting $9 miljoen per jaar aan verloren productiviteit. Tegelijk geeft 95% van de organisaties aan geen meetbare opbrengst te zien van hun investeringen in generatieve AI. Veel output, weinig effect.

Wat mij persoonlijk het meest raakt, zijn de relationele gevolgen. Meer dan de helft van de ontvangers voelt irritatie, ruim een derde verwarring en één op de vijf zelfs ergernis. Bijna de helft beoordeelt collega’s die workslop sturen als minder creatief, minder capabel of minder betrouwbaar. Een derde wil liever niet meer met die persoon samenwerken. Dat is geen soft sentiment, dat is schade aan samenwerking.

Het interessante is dat het onderzoek een duidelijk onderscheid laat zien in houding. Mensen die AI gebruiken om hun eigen denken te versterken, leveren aantoonbaar betere output dan mensen die AI gebruiken om denken te vermijden. Het probleem is dus niet AI, maar cognitieve uitbesteding zonder eigenaarschap.

Workslop is in mijn optiek geen technologische bijwerking, maar een kwaliteitscrisis die door AI zichtbaar en schaalbaar is geworden. Wie AI inzet zonder duidelijke normen, verplaatst werk in plaats van het te verminderen. Wie AI gebruikt als denkpartner, wint juist scherpte. De vraag is niet of we AI gebruiken. De vraag is of we nog herkennen wanneer werk echt iets bijdraagt.

Mijn wekelijkse

Shot inspiratie

Elke week ontvangen 400+ mensen een shot deep-tech inspiratie. Ook ontvangen? Schrijf je hier rechts gratis in.

Ik spam nooit en gebruik het mailadres
alleen voor deze nieuwsbrief.

Copyright © 2026 Jan Scheele

Ook elke week een shot deeptech inspiratie?

Meld je aan om elk weekend een gratis shot inspiratie te ontvangen in de mailbox.

Ik spam nooit en gebruik het mailadres
alleen voor deze nieuwsbrief.

Paid Search Marketing
Search Engine Optimization
Email Marketing
Conversion Rate Optimization
Social Media Marketing
Google Shopping
Influencer Marketing
Amazon Shopping
Explore all solutions