Steeds meer mensen sturen een virtuele avatar naar een vergadering. Maar willen we dat wel?

Eerlijk toegegeven, ik heb het als nerd ook wel eens gedaan. Puur voor de lol, maar ook om reacties te checken. Het voelde ook wel echt als een nerd gimmick. Maar inmiddels is het een serieuze keuze geworden, omdat het super makkelijk gemaakt is door een aantal bekende tech bedrijven.

 

Je kunt vandaag heel gemakkelijk, letterlijk op drie plekken tegelijk “aanwezig” zijn. Tools als Microsoft Teams, Zoom en gespecialiseerde platforms zoals Synthesia en HeyGen maken het mogelijk dat jouw digitale versie praat, reageert en zelfs vragen stelt namens jou.

 

De vraag is dus alleen niet meer of het kan…. de vraag is of je het wilt. Als teamgenoot, maar ook als leider van een organisatie.

 

Want onder de oppervlakte speelt in mijn optiek iets interessants. Adoptie groeit snel bij individuen, vooral in sales en tech waar schaalbaarheid telt. Tegelijk trekken grote instituties juist een grens.

De European Commission verbood AI-agenten in meetings vanwege privacyrisico’s. Talloze universiteiten blokkeren deze tools actief. En ondertussen ontstaat er iets nieuws: ‘Shadow AI’ (medewerkers gebruiken deze tools gewoon stiekem, omdat de productiviteitswinst simpelweg te groot is)

 

Technisch gezien is het ook echt heel indrukwekkend. Avatars die jouw stem en mimiek nabootsen, soms hyperecht. Bots die samenvatten, prioriteren en zelfs reageren in real-time. Maar juist daar begint het spanningsveld.

 

Onderzoek laat zien dat mensen ongemak ervaren wanneer iets bijna menselijk is, maar net niet. Die “uncanny valley” speelt nu ook in de boardroom. Vertrouwen daalt en besluiten voelen minder gedragen.

 

Een ander effect is subtieler, maar misschien wel belangrijker. Teams worden efficiënter, maar minder creatief. Als iedereen dezelfde AI gebruikt, verdwijnen afwijkende ideeën. Frictie verdwijnt…. en precies daar ontstaan normaal gesproken de beste inzichten.

 

Daarnaast is er iets menselijks wat we moeilijk meten, maar direct voelen. Als jij een bot stuurt naar een gesprek waar anderen wél aanwezig zijn, wat zeg je dan eigenlijk? Vaak wordt het geïnterpreteerd als: mijn tijd is belangrijker dan dit gesprek. Dat raakt cultuur, niet technologie.

 

Voor leiders wordt dit dus geen toolvraag, maar een keuze over gedrag. Wanneer is jouw aanwezigheid essentieel? Wanneer volstaat representatie?

Avatars werken trouwens uitstekend voor updates, samenvattingen en informatieoverdracht. Ze falen juist op empathie, timing en nuance. Precies de elementen waarop leiderschap het verschil maakt in mijn optiek.

 

Misschien is dat de kern van deze ontwikkeling. Niet dat technologie ons vervangt in meetings, maar dat het ons dwingt om scherper te kiezen waar we echt aanwezig moeten zijn. Want uiteindelijk bouw je als leider geen vertrouwen via efficiëntie, maar via aandacht.

Dit land verdient een derde van haar BBP met Bitcoin en kon daardoor al de salarissen van ambtenaren verdubbelen.

Soms gebeuren de interessantste economische experimenten ver buiten de schijnwerpers. Neem Bhutan. Een klein Himalayaland met nog geen 800.000 inwoners dat de afgelopen jaren in stilte iets opmerkelijks deed: op bepaalde momenten verdiende het land met Bitcoin bijna een derde van zijn hele BBP.

Geen hypecampagne, geen grote aankondiging… gewoon een slimme economische zet. Het land begon rond 2019 met Bitcoin-mining via het staatsinvesteringsfonds Druk Holding & Investments. De logica was simpel; het land produceert enorme hoeveelheden waterkracht. In bepaalde seizoenen bleef een groot deel daarvan ongebruikt of werd het goedkoop geëxporteerd naar India.

Tot de overheid zich afvroeg: wat als we die energie gebruiken om digitale waarde te creëren? Sindsdien bouwde Bhutan Bitcoin miningfaciliteiten naast waterkrachtcentrales in de Himalaya. Dankzij de koele berglucht zijn de koelingskosten laag. Dankzij waterkracht draait de mining vrijwel volledig op groene energie.

De cijfers zijn ook wel echt bizar voor zo’n klein land. Op het hoogtepunt in 2024 bezat Bhutan naar schatting zo’n 13.000 BTC. Inmiddels ligt de staatsreserve rond de 5.400 tot 5.700 BTC, met een waarde van ongeveer 370 tot 400 miljoen dollar. Op piekmomenten was de Bitcoinvoorraad zelfs meer dan 1 miljard dollar waard. Voor een land met een economie van ongeveer 3 miljard dollar heeft dat enorme impact.

Het geld wordt ook daadwerkelijk gebruikt. In 2023 verkocht Bhutan bijvoorbeeld voor ongeveer 100 miljoen dollar aan crypto om salarissen van ambtenaren te verhogen en zo een uitstroom van talent uit het land te stoppen. Tegelijk investeert het land in Gelephu Mindfulness City, een nieuwe economische zone waar technologie, fintech en AI samen moeten komen.

Bhutan is daarmee een van de eerste landen ter wereld dat Bitcoin behandelt als een nationale industrie. Interessant is dat steeds meer landen experimenteren met vergelijkbare strategieën. El Salvador koopt actief Bitcoin voor zijn staatsreserve. Iran gebruikt mining om internationale handel te financieren. Ethiopië wil overtollige energie van zijn megadam inzetten voor mining. Paraguay en Pakistan onderzoeken grote mining- en datacenterprojecten.

Daarnaast bezitten sommige landen enorme Bitcoinvoorraden via inbeslagnames. De Verenigde Staten hebben meer dan 320.000 BTC in handen. China bezit naar schatting zo’n 190.000 BTC. In totaal houden overheden wereldwijd inmiddels ongeveer een half miljoen Bitcoin vast.

Steeds vaker hoor ik daarom een vergelijking die tien jaar geleden nog ondenkbaar was; Bitcoin als digitaal goud. Of dat echt zo wordt, zal de toekomst uitwijzen. Wat Bhutan in ieder geval laat zien, is dat sommige landen Bitcoin niet zien als speculatie, maar als infrastructuur, als energie-industrie en als strategische reserve.

Volgens Harvard krijgen we allemaal ‘brain fry’ door AI. Zo ga ik het tegen

Harvard University ontdekte een verassend nieuw probleem door AI: “brain fry”. Iets waar ik zelf ook steeds meer last van heb… en ook actie op onderneem.

AI zou ons werk lichter maken. Onderzoek van Harvard laat nu juist iets zien waar veel professionals zich meteen in zullen herkennen: AI kan óók mentale overbelasting veroorzaken. Ze noemen het “AI brain fry”. Geen hypewoord, maar een concreet patroon van mentale mist, tragere beslissingen, hoofdpijn en meer fouten zodra mensen te veel AI-tools tegelijk moeten aansturen of controleren. In het onderzoek onder 1.488 fulltime werkenden gaf 14% aan dit al te ervaren.

Het interessante is de paradox. AI verlaagt burnout niet per definitie, maar kan die juist wél helpen verminderen wanneer het saaie, repetitieve taken uit handen neemt. Tegelijk stijgt de mentale belasting fors wanneer mensen vooral toezichthouder van AI worden. Hoge AI-oversight hing in de studie samen met 14% meer mentale inspanning, 12% meer mentale vermoeidheid en 19% meer information overload.

Wat ik nog opvallender vond: productiviteit stijgt eerst, maar niet eindeloos. Bij 1-3 tools is er winst. Daarna zakt het effect weer weg. Meer AI is dus niet automatisch beter. Vooral marketeers bleken kwetsbaar: daar rapporteerde ongeveer 26% AI brain fry, veel meer dan bijvoorbeeld legal, waar het rond de 6% lag.

Dat raakt voor mij ook echt de kern van leiderschap. Veel organisaties plakken AI bovenop bestaand werk en noemen dat innovatie. In de praktijk betekent het vaak: meer tabs open, meer output beoordelen, meer beslissingen nemen, meer context vasthouden. Dus niet minder werkdruk, maar een nieuw soort werkdruk.

De echte les is in mijn optiek simpel: gebruik AI niet om meer chaos te produceren, maar om frictie weg te halen. Beperk het aantal tools, ontwerp werk opnieuw, beloon niet op volume maar op impact, en train mensen in wanneer ze moeten stoppen in plaats van steeds nóg een prompt te schrijven. Want een slimmer bedrijf is in mijn optiek niet het bedrijf dat zijn mensen maximaal laat schakelen. Het is het bedrijf dat hun aandacht beschermt.

Ik pak dit zelf als volgt aan:
1) Beperk je AI-stack. Onderzoek laat zien dat productiviteit stijgt tot ongeveer drie AI-tools tegelijk. Daarna daalt het effect juist. Minder tools betekent vaak meer focus.
2) Gebruik AI voor repetitief werk, niet voor alles. Laat AI vooral taken overnemen die saai of routinematig zijn. Wanneer je vooral AI-output moet controleren of bijsturen, stijgt de mentale belasting juist.
3) Werk in duidelijke blokken. Gebruik AI bijvoorbeeld 20 tot 30 minuten intensief, neem daarna even afstand van je scherm. Je brein heeft die reset nodig om weer helder te kunnen denken.

Hoe voorkom je dat AI je dommer maakt? 6 tips

We werken sneller dan ooit, maar denken minder diep. Steeds meer onderzoek laat zien dat als we taken uitbesteden aan AI, onze mentale inspanning daalt en onze kritische controle verslapt. Bij experimenten blijkt dat mensen hun eigen AI-gegenereerde teksten nauwelijks kunnen herinneren. Ook halveert de nauwkeurigheid bij complexe taken zodra het systeem blind wordt vertrouwd.

De vraag is dus niet of AI ons productiever maakt, maar wat het met ons denkvermogen doet. En hoe je dit effect kan ondervangen. In dit artikel ga ik in op de belangrijkste tips.

De angst dat technologie ons dommer maakt, is niet nieuw

Toen Socrates het schrift bekritiseerde, waarschuwde hij dat mensen hun geheugen zouden verliezen omdat kennis buiten het hoofd werd opgeslagen. In de 15e eeuw werd de boekdrukkunst gezien als een bedreiging voor diep denken, omdat informatie plotseling massaal beschikbaar werd. Bij de opkomst van televisie in de 20e eeuw voorspelden critici een generatie met een kortere aandachtsspanne.

Bij eerdere technologische revoluties zien we zelden pure cognitieve achteruitgang. Wat we wel zien, is een verschuiving. Het schrift verminderde de noodzaak om lange teksten letterlijk te onthouden en vergrootte het vermogen tot abstract denken en complexe argumentatie. De boekdrukkunst leidde niet tot minder intelligentie, maar tot een explosie van wetenschappelijke en filosofische vooruitgang. Tegelijkertijd tonen onderzoeken rond televisie en later sociale media wel degelijk een verband met een beperkt concentratievermogen en een hogere afleidbaarheid, vooral bij intensief gebruik.

Technologie maakt ons dus niet automatisch dommer. Ze verandert welke cognitieve vaardigheden we trainen. Sommige vermogens worden minder geoefend, andere juist versterkt. De vraag bij AI is daarom niet of dit patroon zich herhaalt, maar of de schaal en snelheid dit keer fundamenteel anders zijn.

Waar snelheid schuurt met scherpte

Veel marketing- & communicatieprofessionals werken inmiddels dagelijks met AI bij het schrijven van nieuwsbrieven, campagnes, social mediaposts, blogartikelen en strategievoorstellen. Juist daar zit het risico. Als je een concepttekst, campagneopzet of doelgroepanalyse door een AI-model laat genereren, verschuift jouw rol ongemerkt van bedenker naar beoordelaar. Je denkt niet meer vanaf nul, je reageert op iets wat er al is. Dit lijkt efficiënt, maar het verkleint de kans dat je zelf nieuwe invalshoeken ontwikkelt of aannames ter discussie stelt.

Als je alle studies naast elkaar legt, zie je een duidelijk (en schrikbarend) patroon. AI maakt ons werk vaak sneller en beter, maar die winst komt meestal doordat het systeem een deel van ons denkwerk overneemt. Een MIT-studie met honderden professionals liet zien dat de proefpersonen 37 procent sneller werkten met ChatGPT en dat de kwaliteit van hun werk omhoog ging. De onderzoekers zagen ook iets anders; de professionals deden minder moeite. Ze hoefden minder diep na te denken om tot een resultaat te komen. Dit heeft consequenties voor het leervermogen.

Je ziet dit effect nog duidelijker in onderzoek onder studenten. In een experiment met 91 deelnemers gebruikten sommige studenten ChatGPT en anderen ‘gewoon’ Google (dus niet Gemini). De ChatGPT-groep voelde minder mentale belasting, het werk was makkelijker. Daar staat tegenover dat hun argumenten minder sterk waren en minder goed onderbouwd. Oftewel: het voelde beter, maar het denken werd minder diep.

Het risico van blind vertrouwen

Een ander risico bij het gebruik van AI is het blinde vertrouwen erin. In experimenten waarbij mensen keuzes moesten maken met hulp van een AI-zoekmachine, werkten de proefpersonen bijna 2 keer zo snel. Ze stelden minder vragen. Maar bij moeilijke taken zakte de nauwkeurigheid naar 26 procent als AI geen duidelijk signaal gaf over onzekerheid van het antwoord. Toen onderzoekers onzekerheidsmeldingen toevoegden, steeg de nauwkeurigheid naar boven de 50 procent. Dat laat zien hoe snel we geneigd zijn AI blindelings te volgen zonder extra controle.

Ook in het onderwijs zie je dit effect inmiddels terugkomen. In een studie naar natuurkundeproblemen nam bijna de helft van de studenten een fout AI-antwoord klakkeloos over. Veel deelnemers kopieerden hun vraag direct in ChatGPT en dachten minder zelf na. Ik vind dit een zorgelijke ontwikkeling, want juist bij moeilijke vraagstukken leer je door zelf te worstelen.

In organisaties speelt nog een ander risico. Onderzoekers van Harvard Business School en Boston Consulting Group ontdekten dat mensen beter presteren met AI binnen een kennisgebied waarin het model sterk is. Valt een taak net buiten dat gebied? Dan maken gebruikers van AI meer fouten, terwijl ze wel sneller blijven werken. Dat is gevaarlijk. Je gaat sneller vooruit, maar wellicht niet in de juiste richting.

Ook ons brein krijgt het te verduren. Een recente studie met hersenmetingen laat zien dat mensen minder brede hersenactiviteit laten zien wanneer ze schrijven met hulp van een Large Language Model (LLM). Overigens is dit onderzoek nog niet definitief en wordt het ook bekritiseerd. Wat we wel zeker weten, is dat minder actieve inspanning vaak betekent dat informatie minder goed blijft hangen.

Als je alles samenneemt, ontstaat er wel echt een nuchter beeld. AI maakt ons productiever. Tegelijkertijd vergroot het ook de kans dat we minder diep denken, minder kritisch controleren en sneller vertrouwen op een systeem dat niet altijd gelijk heeft. Het probleem zit dus niet in de technologie, maar in de manier waarop wij ermee omgaan.

Hoe ik zelf voorkom dat AI mijn denkspieren lui maakt

Bovenstaande uitdagingen kwam ik zelf een tijdje geleden al tegen en ik ben hier gelijk op gaan acteren. Ik gebruik AI namelijk elke dag, uren lang. Voor research, structuur, sparren, ideeën en meer. Maar ik wil niet dat het mijn denkwerk volledig vervangt. Daarom heb ik een paar vaste regels voor mezelf.

1. Eerst zelf denken, dan pas AI

Als ik meteen naar ChatGPT ga, voelt alles makkelijker. Maar ik merk ook dat mijn eigen redenering dan minder scherp wordt. Daarom dwing ik mezelf om eerst een ruwe outline te maken. Wat is mijn stelling? Welke argumenten heb ik? Waar twijfel ik? Pas daarna gebruik ik AI om gaten te vinden of tegenargumenten te formuleren. AI komt bij mij pas in beeld als ik zelf al heb nagedacht.

2. Gebruik AI als criticus, niet als ghostwriter

AI kan mijn eerste gedachte bevestigen en dat voelt comfortabel, maar bevestiging maakt je niet beter. Daarom vraag ik bijna altijd wat er niet klopt aan mijn redenering. Welke tegenargumenten mis ik? Waar zit een denkfout? Door het systeem mijn ideeën te laten bekritiseren, dwing ik mezelf om mijn eigen logica opnieuw testen. Dit kost meer moeite en precies dat houdt mijn denken scherp.

3. Forceer twijfel en controle

Onderzoek laat zien dat mensen sneller fouten maken als AI geen onzekerheid toont. Daarom vraag ik expliciet waar het systeem niet zeker van is: ‘welke aannames doe je?’ ‘Welke claims moet ik controleren?’ Bij belangrijke onderwerpen zoek ik altijd een tweede bron. Ik wil niet dat snelheid mijn kritische blik vervangt.

4. Laat AI helpen bij ideeën, niet bij de eindbeslissing

AI is sterk in variaties en invalshoeken. Daar gebruik ik het graag voor. Ik laat het 10 tot 20 mogelijke perspectieven of voorbeelden geven. Daarna sluit ik het venster en kies ik zelf. Ik wil voelen waarom iets klopt. Dat gevoel ontwikkel je alleen als je zelf beslist.

5. Plan AI-vrije denkblokken

Als uitbesteden altijd kan, dan doe je het ook. Dat is menselijk. Daarom plan ik bewust momenten zonder hulpmiddelen. 20 Minuten schrijven zonder AI, gewoon nadenken en formuleren. Die frictie is soms ongemakkelijk, maar juist daar ontstaan mijn beste inzichten.

6. Gebruik AI om te overhoren in plaats van te vervangen

Als ik iets echt wil begrijpen, moet ik het kunnen uitleggen. In plaats van om een samenvatting te vragen, vraag ik om kritische vragen. Of om een analyse van zwakke plekken in mijn uitleg. Zo dwing ik mezelf om kennis actief op te halen in plaats van passief te consumeren. Ik merk steeds meer dat AI gevaarlijk wordt wanneer het ongemerkt mijn denkproces vervangt. Het wordt daarentegen juist heel krachtig als het mijn denken uitdaagt.

In marketing draait concurrentie steeds minder om wie de meeste content kan produceren. Het gaat om wie juist het beste kan denken. Als iedereen met dezelfde AI modellen werkt, ontstaat er een risico op ‘strategische middelmatigheid’: campagnes die logisch klinken, maar niet echt meer onderscheidend zijn. Juist daarom is het belangrijk om AI niet in te zetten als eerste stap in je denkproces.

Als gemak structureel wordt, wie bewaakt dan onze cognitieve autonomie?

Over de toekomst zijn wetenschappers het niet volledig eens, maar 1 punt keert steeds terug in de onderzoeken die ik lees: AI zal niet verdwijnen uit ons denkproces, het zal er steeds dieper in verweven raken. Het gaat dus niet om de vraag of we ermee werken, maar hoe we ermee werken. Economische studies laten zien dat generatieve AI productiviteit structureel kan verhogen, vooral bij kenniswerk en bij minder ervaren professionals. Organisaties als de OECD verwachten dat AI werkprocessen blijvend verandert, met meer nadruk op toezicht, controle en samenwerking tussen mens en machine. Dit betekent dat de rol van de mens verschuift van uitvoerder naar beoordelaar en beslisser. Tegelijk waarschuwen onderzoekers voor een zogenoemd leergat. Als basisvaardigheden zoals schrijven, redeneren of analyseren minder worden geoefend, kan er een generatie ontstaan die sterk is in het aansturen van AI, maar zwakker in zelfstandig denken. Zeker bij jongeren, waarvan het brein nog in ontwikkeling is, wordt dat als een reëel risico gezien.

De vraag voor de komende decennia is daarom niet of AI slimmer wordt dan wij. De echte vraag is of wij blijven investeren in onze eigen cognitieve autonomie. Ik zie AI niet als vijand van ons brein, maar het is ook geen neutraal hulpmiddel. Het versterkt wat wij ermee doen. Gebruik je het om sneller klaar te zijn, dan word je efficiënter. Gebruik je het om frictie te vermijden, dan train je minder. Zet je het in om je denken uit te dagen, dan kan het juist een katalysator zijn voor groei.

Zoals ik het zie is de echte vaardigheid in het gebruik van AI niet optimaal leren prompten. Het gaat om kiezen wanneer je dit juist niet doet. Cognitieve autonomie is geen luxe, het is een belangrijke discipline. Niet omdat AI ons dom maakt, maar omdat gemak altijd de neiging heeft om ons minder scherp te maken. Terwijl de toegevoegde waarde van marketing- & communicatieprofessionals in mijn optiek juist steeds meer zal liggen in het kritisch kunnen beoordelen, uitdagen en sturen van AI-gegenereerde ideeën.

Na ‘dark factories’ zien we nu ‘zero human companies’ ontstaan: ben jij daar als leider klaar voor?

Stel je voor dat je ’s ochtends wakker wordt en ziet dat je bedrijf ’s nachts een nieuw product heeft gelanceerd. De website staat online, de marketingcampagne draait al en de eerste betalingen zijn binnen. Het bijzondere: niemand heeft eraan gewerkt.

Dit klinkt futuristisch, maar het idee van zogenoemde zero-human companies zie ik steeds vaker op te duiken in de techwereld. Bedrijven waarin AI-agents vrijwel alle operationele taken uitvoeren. Marketing, productontwikkeling, klantenservice, administratie. Alles wordt gedaan door software die met elkaar samenwerkt. De menselijke rol verdwijnt daarbij niet, maar verschuift. Minder uitvoeren, meer sturen.

De eerste voorbeelden laten zien hoe snel dit zich een beetje ontwikkelt. Ondernemer Nat Eliason experimenteerde met een AI-agent die toegang kreeg tot zijn website, e-mail en betaalomgeving. Hij gaf het systeem een simpele opdracht: maak een product en probeer het te verkopen. De agent bouwde vervolgens een website, maakte een digitaal product en zette een betaalpagina op. Het systeem liep uiteindelijk vast op een technische beperking, maar had vrijwel het hele proces zelfstandig uitgevoerd.

In andere experimenten werken meerdere AI-agents samen alsof het een managementteam is. Eén agent analyseert kansen in de markt, een andere bouwt het product, een derde verzorgt marketing en een vierde bewaakt de kwaliteit. Een soort digitale directiekamer.

Ik ben hierdoor wel echt mega gefascineerd. AI-agents werken namelijk 24 uur per dag. Ze kunnen meerdere taken tegelijk uitvoeren en duizenden kleine beslissingen automatiseren. Wat vroeger een team van specialisten nodig had, kan in theorie door een netwerk van software worden gedaan. Groei hoeft niet langer automatisch te betekenen dat je meer mensen moet aannemen. ik lees ook steeds meer de voorspelling dat het niet langer duurt, voordat we een unicorn hebben met 1 medewerker.

Toch is het verhaal wel echt een stuk complexer en de realiteit rommeliger. Experimenten laten zien dat AI-agents elkaar verkeerd kunnen begrijpen, verkeerde aannames kunnen doen of beslissingen nemen die logisch lijken voor een algoritme maar niet voor een organisatie.

Wanneer meerdere systemen tegelijk handelen ontstaat al snel verwarring. Taken worden dubbel uitgevoerd, doelen botsen of processen lopen vast. Daar ligt in mijn optiek de echte uitdaging van deze nieuwe bedrijven. Niet de technologie zelf, maar de coördinatie.

Veel leiders kijken naar AI vanuit efficiëntie: hoe kan deze technologie werk sneller of goedkoper maken? Zero-human companies laten een andere vraag zien.

Wat gebeurt er als een organisatie steeds minder draait om mensen die taken uitvoeren, en steeds meer om systemen die taken uitvoeren? De rol van leiderschap verschuift dan ook in mijn optiek.

Leiders worden minder managers van werk en meer ontwerpers van systemen. Je bepaalt niet alleen wat er moet gebeuren, maar ook hoe digitale teams samenwerken, welke beslissingen ze mogen nemen en waar grenzen liggen. Strategie wordt dan belangrijker dan de uitvoering. Ook verantwoordelijkheid verandert. Als een AI-systeem een fout maakt, ligt de verantwoordelijkheid uiteindelijk nog steeds bij de organisatie en haar leiders.

Misschien is de grootste verandering wel conceptueel. We zijn gewend om bedrijven te zien als groepen mensen die samenwerken. Maar in de komende jaren kunnen er steeds meer organisaties ontstaan waarin software een groot deel van die samenwerking overneemt. Dat betekent dat leiders niet alleen teams aansturen, maar ook systemen ontwerpen.

De komende jaren voorspel ik dan ook, dat we de eerste bedrijven zien verschijnen die grotendeels door software worden gerund. Sommige zullen mislukken, andere zullen verrassend succesvol blijken. De interessante vraag is dus niet alleen of het kan… maar; als organisaties steeds digitaler worden, wat wordt dan jouw rol als leider?

Hoe ga ik AI-workslop tegen; 3 regels

Afgelopen week was ik meer tijd bezig met workslop te corrigeren, dan dat gebruik van AI mij tijdswinst gaf. Drie regels die ik heb gesteld om dit tegen te gaan

Ik ben er wel een beetje klaar mee. AI zou tijd vrijmaken. In plaats daarvan corrigeer ik steeds vaker documenten die eruitzien als werk, maar het niet zijn. Strak geformuleerd. Logisch opgebouwd. Maar zonder echte analyse, zonder scherpe keuzes, zonder verantwoordelijkheid voor de inhoud.

Wat er dan gebeurt is fundamenteel: het denkwerk verschuift. Niet naar de machine, maar naar degene die het ontvangt. Die moet checken, herinterpreteren, herschrijven. Workslop automatiseert geen arbeid, het externaliseert verantwoordelijkheid.

Onderzoek laat zien dat ongeveer 40 procent van de werknemers dit herkent. Per incident kost het bijna twee uur herstelwerk. De financiële schade is aanzienlijk, maar de relationele schade is groter. Ontvangers beoordelen afzenders vaker als minder creatief, minder capabel, minder betrouwbaar. Vertrouwen slijt.

Toch is dit in mijn optiek zelden pure luiheid. Het is systeemdruk. Leiders voelen druk om AI te implementeren. Teams voelen druk om te leveren. Als de boodschap dan wordt: gebruik AI overal, dan ontstaat performatief gebruik. Niet: waar voegt dit waarde toe? Maar: hoe laat ik zien dat ik het gebruik?

Dat is geen AI-probleem. Dat is een leiderschapsvraagstuk. In mijn eigen werk probeer ik drie simpele maar harde regels te hanteren.

1) AI mag helpen bij vorm, nooit bij verantwoordelijkheid. Als je iets aanlevert, ben jij eigenaar van de inhoud. Ik stel altijd de vraag: als ik je nu doorvraag, kan je dit verdedigen zonder naar de tool te wijzen?

2) geen output zonder expliciete context. Ik wil weten wat de opdracht was, wat je AI precies hebt gevraagd, en wat jij hebt aangepast. Dat dwingt tot nadenken. Transparantie is geen zwakte, het is kwaliteitsborging.

3) AI is een versneller van scherpte, niet van volume. Liever één pagina met echte keuzes dan tien pagina’s generieke perfectie. Ik stuur vaker terug met één zin: wat is hier de kernbeslissing?

Sinds ik dat expliciet maak, zie ik verschil. Minder ruis. Meer eigenaarschap. Betere gesprekken.

AI kan productiviteit verhogen, daar twijfel ik niet aan. Maar alleen als kwaliteit georganiseerd wordt. Zonder duidelijke normen verdwijnt snelheid in rework. Zonder vertrouwen wordt samenwerking stroef. Zonder eigenaarschap wordt AI een alibi.

Workslop is in mijn optiek dus geen bewijs dat AI faalt. Het is bewijs dat we nog niet volwassen omgaan met wat het betekent om samen te werken met machines.

AI kan echt prachtig versnellen. Maar alleen als leiders de moed hebben om traagheid toe te laten waar denken nodig is.

AI maakt van ons opnieuw Luddieten, maar dit keer om de juiste redenen

Afgelopen week vroeg iemand na mijn lezing of we niet gewoon weer een generatie Luddieten aan het creëren zijn, mensen die vooruitgang niet begrijpen. Daar zit echt iets ongemakkelijks in; hoe snel we iemand vandaag een “luddiet” noemen.

Het klinkt namelijk als een verwijt. Alsof kritiek op AI neerkomt op angst voor vooruitgang. Historisch is dat een karikatuur. De Luddieten van 1811 waren geen mensen die de toekomst niet begrepen. Het waren geschoolde wevers die zagen hoe hun vak werd gereduceerd tot een kostenpost. Machines produceerden sneller en goedkoper. Fabriekseigenaren verdienden. De wever verloor zijn autonomie, zijn inkomen, zijn waardigheid.

Hun woede richtte zich niet op het rad of de stoom. Ze saboteerden specifieke eigenaren die lonen drukten en kwaliteit negeerden. Dat detail verdwijnt vaak uit het verhaal.

De discussie rond AI rijmt daar opvallend mee. Veel ontwerpers en schrijvers zijn niet tegen technologie. Ze gebruiken haar dagelijks. Hun zorg gaat over training op hun werk zonder toestemming. Over een markt die overspoeld raakt met “goed genoeg”. Over macht die zich concentreert bij een handvol bedrijven.

Onderzoek laat zien dat generatieve AI de productiviteit verhoogt, soms met 20 tot 40 procent in bepaalde taken. De vraag is alleen: wie profiteert structureel van die winst? De maker, of vooral het platform?

De Luddite Fallacy leert ons dat technologie op lange termijn nieuwe banen schept. Dat is waar op macroniveau. Voor het individu dat nu terrein verliest, voelt die belofte abstract.

Misschien is de echte scheidslijn niet tussen voor of tegen AI. Misschien gaat het om iets anders: accepteren we dat technologische vooruitgang neutraal is, of durven we opnieuw te vragen aan wie zij uiteindelijk verantwoording verschuldigd is?

De machine slimmer dan de mens… so what?

De vraag of een machine slimmer kan worden dan de mens klinkt als sciencefiction. Toch gaat het debat allang niet meer over fantasie. Het gaat over macht, verantwoordelijkheid en de inrichting van organisaties.

Het blijft echt een vraag die ik vaak krijg na lezingen, vaak gesteld met een angstige stem. Wat verandert er echt als systemen niet alleen ondersteunen, maar beter worden in denken dan wij?

Op maatschappelijk niveau zie ik drie duidelijke effecten opdoemen.

Ten eerste verschuift kennis van iets persoonlijks naar iets schaalbaars. Waar expertise vroeger zat in hoofden van specialisten, kan die straks draaien in datacenters. Dat klinkt efficiënt, maar het verandert hoe status en invloed verdeeld zijn. Wie bezit de systemen, bezit de kennis. Dat kan ongelijkheid versterken, niet alleen tussen mensen, maar ook tussen landen en bedrijven.

Ten tweede verandert vertrouwen van karakter. We vertrouwen nu mensen met ervaring en reputatie. In een wereld waarin algoritmen betere voorspellingen doen dan experts, verschuift vertrouwen naar prestatiescores en modellen. Dat maakt besluitvorming rationeler, maar ook afstandelijker. Vertrouwen wordt meetbaar, minder relationeel.

Ten derde komt werk onder druk te staan, niet alleen in uitvoerende rollen, maar juist in kennisfuncties. Analisten, juristen, consultants, strategen. Functies die draaiden om het verwerken en combineren van informatie. Organisaties zullen zich opnieuw moeten afvragen waar menselijke waarde zit als denken goedkoper en sneller wordt.

Voor organisaties zie ik een tweede laag. Leiderschap verschuift van inhoudelijk de slimste zijn naar het kunnen duiden van uitkomsten. De vraag wordt minder: wat denk jij? En vaker: waarom volgen we dit systeem wel of niet? Dat vraagt moed. Afwijken van een model dat statistisch gelijk heeft, moet je kunnen uitleggen.

Misschien is dat de echte impact van AGI. Niet massale werkloosheid of technologische chaos, maar een herdefinitie van gezag. Slimheid wordt een commodity. Oordeel, verantwoordelijkheid en betekenis geven worden schaars.

Of machines ons werkelijk voorbijgaan, weten we niet. Dat organisaties en samenlevingen zich moeten voorbereiden op een wereld waarin intelligentie niet langer exclusief menselijk is, lijkt mij inmiddels onvermijdelijk. De vraag is niet alleen wat technologie kan, maar wie wij willen blijven als zij dat kan.

Hoe ik voorkom dat AI mij dommer maakt: vijf regels die ik heilig verklaar

Hoe ik voorkom dat AI mij dommer maakt: vijf regels die ik heilig verklaar


Angst, voor de eigen baan, voor de maatschappij… en het eigen brein. Toen ik de afgelopen week eens de meest gestelde vragen na mijn keynotes op een rij zette, sprong er één bovenuit: ‘is AI echt zo slecht voor je brein?’

Die vraag zegt in mijn optiek minder over technologie en meer over onze angst om denkvermogen kwijt te raken.

Ik zie bijna dagelijks hoe die angst wordt gevoed. Het MIT Media Lab-onderzoek ‘Your Brain on ChatGPT’ werd snel gebracht als “AI maakt je dom”. De werkelijkheid is in mijn optiek echt genuanceerder. Geen hersenschade, wel andere denkgewoonten: minder betrokkenheid, zwakker geheugen, minder eigenaarschap.

Dat patroon kennen we. Plato vreesde dat schrijven ons geheugen zou aantasten. Rekenmachines zouden ons dom maken. Smartphones onze aandacht vernietigen. Telkens bleek niet de technologie het probleem, maar hoe gedachteloos we haar gebruiken.

AI is anders omdat ze zo verleidelijk goed is in alles. Schrijven, samenvatten, analyseren, brainstormen. Daardoor ontstaat het risico van wat ik voor mezelf een AI-brein noem: niet minder intelligent, wel minder scherp. Minder frictie, minder worsteling, minder eigen perspectief.

Onderzoek bevestigt dat risico én de nuance. Scholieren die GPT zonder begeleiding gebruikten, scoorden later 17 procent lager. Tegelijkertijd laten studies van de The World Bank, Harvard University en Stanford University zien dat AI enorme leerwinst kan opleveren, mits ingezet als tutor en niet als antwoordenmachine.

Het verschil zit hem in mijn optiek dus niet in AI, maar in hoe je haar inzet. Dit zijn de regels die ik zelf hanteer om scherp te blijven:

1) Ik denk vóór ik prompt
Voordat ik AI open, schrijf ik eerst mijn eigen standpunt of vraag op. Soms rommelig, soms half. Pas daarna mag AI meedenken. Nooit andersom.

2) Ik schrijf altijd eerst zelf
Elke tekst begint zonder AI. Pas als er een volledige eerste versie staat, gebruik ik AI als redacteur, nooit als auteur.

3) Ik los niet alles meteen op
Als iets schuurt, laat ik het liggen. Geen snelle samenvatting, geen directe AI-oplossing. Ik dwing mezelf om langer in onzekerheid te blijven.

4) Ik kies bewust voor minder
Ik bepaal elke week twee of drie dingen die echt tellen. Ideeën die “wel leuk” zijn, laat ik liggen, ook als AI ze snel uitvoerbaar maakt.

5) Ik plan menselijke frictie in
Elke dag tijd zonder scherm. Elke week fysieke inspanning. Zo vaak mogelijk echte gesprekken in plaats van calls. Dit staat letterlijk in mijn agenda.

AI beschadigt je hersenen niet. Onbewust gebruik kan wel je denkgewoonten afvlakken. De echte vraag is dus niet wat AI met ons brein doet, maar welke delen van ons denken we vrijwillig uitbesteden.

Steeds meer leiders missen strategische fluency rondom technologie. Zo herken je het en zo pak je het aan

In 1961 stond John F. Kennedy voor een groep ingenieurs bij NASA. De Verenigde Staten liepen achter in de ruimtewedloop en de technische onzekerheden waren enorm. Toch ging het in zijn woorden nauwelijks over raketten of berekeningen.

Hij sprak over richting. Over het vermogen om een ambitie te formuleren die groot genoeg was om keuzes af te dwingen, ook als de weg ernaartoe nog onduidelijk was. Niet de technologie stond centraal, maar het kompas.

Die scène komt steeds vaker in me op wanneer gesprekken over AI en strategie elkaar kruisen. Niet omdat AI hetzelfde is als de NASA van toen, maar omdat de kernvraag identiek is: begrijpen leiders voldoende wat er gebeurt om scherpe keuzes te maken?

Veel van mijn klanten investeren inmiddels fors in AI. Er draaien pilots, er zijn dashboards, er wordt geëxperimenteerd met generatieve modellen. Tegelijkertijd hoor ik van veel leiders terug, dat ze het gevoel hebben dat het niet echt landt. Projecten concurreren met elkaar, teams spreken verschillende talen en bestuurders voelen zich afhankelijk van specialisten zonder zelf het overzicht te hebben. De kloof zit hem hier in mijn optiek zelden in technologie, maar bijna altijd in strategische fluency.

Strategische fluency is geen technische vaardigheid. Het is het vermogen om te begrijpen waar AI waarde kan toevoegen, waar niet, en hoe initiatieven zich verhouden tot bredere bedrijfsdoelen. Leiders met strategische fluency hoeven geen modellen te bouwen, maar kunnen wel de juiste vragen stellen. Ze zien AI niet als innovatie op zich, maar als onderdeel van een samenhangend verhaal over groei, risico en verantwoordelijkheid.

Wat daarbij opvalt, is dat veel organisaties AI benaderen alsof het een losse versnelling is. Meer data, snellere analyses, efficiëntere processen. De praktijk laat iets anders zien. AI werkt eerder als een vergrootglas. Wat strategisch helder is, wordt scherper. Wat diffuus is, wordt pijnlijk zichtbaar. Zonder duidelijke prioriteiten leidt AI tot fragmentatie, niet tot versnelling.

Hier helpt een eenvoudig denkkader: zie AI als een nieuwe medewerker aan de bestuurstafel. Een medewerker die extreem snel patronen ziet, maar geen gevoel heeft voor context, ethiek of lange termijn. Die medewerker kan briljant zijn, mits goed aangestuurd. Zonder kaders gaat hij alle kanten op. Governance is in dat beeld geen rem, maar de functiebeschrijving. Het bepaalt waar AI mag meedenken, waar besluiten vallen en wie verantwoordelijkheid draagt.

Recente analyses laten zien dat organisaties die governance vroeg betrekken bij AI-initiatieven sneller schaal bereiken en minder last hebben van versnippering. Niet omdat ze voorzichtiger zijn, maar omdat ze duidelijker zijn. Strategische fluency betekent hier: begrijpen dat snelheid zonder richting uiteindelijk vertraging oplevert.

Tegelijkertijd is er spanning. Bestuurders voelen de druk om mee te gaan, terwijl onzekerheid blijft bestaan. Wat als we kansen missen? Wat als we te veel vertrouwen op systemen die we niet volledig doorgronden? Die spanning verdwijnt niet door meer experimenten, maar door beter strategisch gesprek. AI dwingt leiders om explicieter te worden over aannames, waarden en keuzes. Dat is ongemakkelijk, maar ook gezond.

Wat nu al zichtbaar is, is dat de meest succesvolle AI-toepassingen voortkomen uit organisaties waar strategie geen jaarlijks document is, maar een continu gesprek. Daar wordt AI niet ingezet om beslissingen te automatiseren, maar om besluitvorming te verrijken. Scenario’s worden scherper, trade-offs explicieter, en blinde vlekken sneller herkend.

Strategische fluency vraagt daarom iets fundamenteels van leiderschap. Minder leunen op controle, meer op begrip. Minder focus op tools, meer op samenhang. Het is het verschil tussen vragen wat AI kan, en vragen wat wij willen dat het doet.

In een tijd waarin technologie sneller beweegt dan organisaties, is strategische fluency in mijn optiek geen luxe, maar een vorm van volwassenheid. De vraag die blijft hangen is eenvoudig, maar niet gemakkelijk: als iemand vandaag met frisse ogen naar jouw AI-initiatieven kijkt, zien zij dan richting, of vooral activiteit?

Mijn wekelijkse

Shot inspiratie

Elke week ontvangen 400+ mensen een shot deep-tech inspiratie. Ook ontvangen? Schrijf je hier rechts gratis in.

Ik spam nooit en gebruik het mailadres
alleen voor deze nieuwsbrief.

Copyright © 2026 Jan Scheele

Ook elke week een shot deeptech inspiratie?

Meld je aan om elk weekend een gratis shot inspiratie te ontvangen in de mailbox.

Ik spam nooit en gebruik het mailadres
alleen voor deze nieuwsbrief.

Paid Search Marketing
Search Engine Optimization
Email Marketing
Conversion Rate Optimization
Social Media Marketing
Google Shopping
Influencer Marketing
Amazon Shopping
Explore all solutions