De grote vergissing van dit moment is dat we denken dat AI experts vervangt, terwijl het volgens Massachusetts Institute of Technology onderzoek vooral het werk van bijna-experts veel krachtiger maakt.

De grote vergissing van dit moment is dat we denken dat AI experts vervangt, terwijl het volgens Massachusetts Institute of Technology onderzoek vooral het werk van bijna-experts veel krachtiger maakt.

Dit is misschien minder spectaculair dan alle grote beloften die je nu hoort, maar wel veel interessanter. MIT-econoom David Autor en anderen laten al langer zien dat AI de leercurve kan verkorten. Mensen worden sneller productief, pakken nieuwe taken sneller op en komen eerder op een degelijk niveau. Dat is enorm waardevol, zeker in organisaties waar de druk hoog is en de hoeveelheid werk alleen maar toeneemt.

Maar precies daar gaat het denken in mijn optiek vaak mis. Want sneller beter worden is nog iets anders dan expert worden. Een recente studie van onderzoekers van Stanford University en Harvard University maakt dat heel mooi zichtbaar. In hun experiment bleken mensen uit aangrenzende rollen, zoals marketeers, met AI ineens bijna op het niveau van specialisten te kunnen presteren.

Dat is indrukwekkend en laat zien hoeveel kracht er in deze technologie zit. Tegelijk werd ook iets anders pijnlijk duidelijk: zodra mensen te ver van een vakgebied afstaan, helpt AI veel minder dan gehoopt. Je krijgt dan wel output, maar nog geen echt oordeel. Nog geen scherpte. Nog geen gevoel voor kwaliteit.

Precies daar zit wat mij betreft de echte les voor leiders en organisaties. AI vervangt expertise niet zomaar, maar kan expertise wel enorm versterken, versnellen en verbreden. Vooral bij mensen die al genoeg context hebben om te zien of iets klopt, wat eraan ontbreekt en hoe het beter kan. Daar zit de winst.

De vraag is dus niet alleen of AI werk kan overnemen. De belangrijkere vraag is: wie in je organisatie kan AI-uitkomsten echt beoordelen, aanscherpen en vertalen naar kwaliteit?

Wie AI ziet nog steeds ziet als vervanger van vakmanschap, onderschat wat expertise in mijn optiek werkelijk is. Wie AI ziet als versneller van mensen die al dicht bij de inhoud zitten, begrijpt veel beter waar de echte waarde ontstaat.

admin

Jan Scheele werkt dertien jaar op het snijvlak van deep tech, strategie en leiderschap. Als keynote spreker en dagvoorzitter maakt hij technologie tastbaar voor boardrooms, directieteams en grote podia, zonder de complexiteit te versimpelen of te verbergen achter buzzwords.

Zijn achtergrond ligt in het bouwen. Als CEO van een technologie scale-up, oprichter van meerdere techbedrijven en organisator van meer dan vijftig TED-events wereldwijd zag hij van dichtbij hoe technologische keuzes doorwerken in strategie, governance en cultuur. Vanuit zijn betrokkenheid bij het World Economic Forum en de BCNL Foundation kijkt hij daarbij niet alleen naar wat technisch mogelijk is, maar ook naar wat bestuurlijk houdbaar en maatschappelijk wenselijk is.

Hij publiceerde vijf boeken, waarvan twee Amazon-bestsellers, en schrijft wekelijks over AI, blockchain en de organisatorische gevolgen van deep tech. Zijn blogs bereikten inmiddels meer dan twee miljoen lezers.

Op mijn 39e verjaardag; 39 modellen en concepten, die mijn denken de afgelopen 39 jaar volledig hebben veranderd

Vandaag mag ik 39 worden. Wat een ongelooflijk voorrecht.

Na zelf op de rand van de dood te hebben gestaan en de afgelopen jaren veel te veel mensen te hebben moeten begraven, voelt elke dag waarop ik wakker word als een geschenk. Mijn moeder zei even geleden dat ze me in jaren niet zo gelukkig heeft gezien. Ik ben nog nooit zo fit geweest, leef een oprecht rijk leven met dierbare familie en vrienden, en word dagelijks uitgedaagd door mijn werk en door alles wat het leven mij brengt. Juist die combinatie maakt het leven met elk jaar mooier. Iets wat ik over de volle breedte terug zie; ik ga volgend weekend naar Nepal om de Mount Everest tot de top te beklimmen, zakelijk gaat alles helemaal door het dak, ben met twee vrienden een nieuw bedrijf aan het bouwen en mijn directe kring intimi geeft elke dag weer veel goede energie.

Dankzij mijn persoonlijke ‘braintrust’ – mensen die me steunen, uitdagen en inspireren – blijf ik continu werken aan mijn ontwikkeling. Door mezelf scherp te analyseren, dagelijks te schrijven en plannen aan te scherpen, veel te lezen en te luisteren, elk jaar iets nieuws te leren en bewust op zoek te gaan naar betekenisvolle ontmoetingen. Altijd open voor onverwachte kruisbestuiving.

Op eerdere verjaardagen deelde ik o.a. mijn 35 belangrijkste levenslessen en 38 lifehacks. Dit jaar deel ik 39 modellen en concepten, die mijn denken de afgelopen 39 jaar volledig hebben veranderd

 

First principles thinking

Er was een moment waarop ik doorhad dat ik eigenlijk vooral dingen kopieerde. Niet bewust, maar toch. Hoe je een bedrijf bouwt, hoe je een presentatie opzet, hoe je keuzes maakt. Het voelde logisch, want zo “doet iedereen het”. Totdat je jezelf de vraag stelt: maar waarom eigenlijk?

First principles dwingt je om alles even af te breken. Wat weet ik zeker, zonder aannames? Het is ongemakkelijk, want je houdt ineens weinig over. Maar precies daar begint iets interessants. Sindsdien vertrouw ik minder op hoe het hoort, en meer op wat klopt. Elon Musk gebruikt dit dagelijks in zijn denken, Ruben Nieuwenhuis heeft mij hier mee in aanraking gebracht.

 

Second-order thinking

Ik heb best vaak beslissingen genomen die op het moment goed voelden. En dat waren ze ook, voor even ;). Maar een paar stappen verder ontstond er gedoe dat ik niet had zien aankomen. Dat patroon begon me op te vallen. Je kunt niet alleen kijken naar wat iets nú oplevert, je moet ook kijken naar wat het daarna veroorzaakt. Sinds ik dat serieuzer neem, ben ik minder snel enthousiast. Niet omdat ik negatief ben geworden, maar omdat ik beter zie wat er nog achter zit.

 

Inversion

Dit is zo’n simpel trucje dat bijna gênant is hoe goed het werkt . In plaats van denken: hoe word ik goed? draai je het om. Wat moet ik vooral níet doen? Ik gebruik dit vaker dan ik had verwacht. Niet alleen bij grote keuzes, maar ook bij kleine dingen. Vaak zit de winst niet in iets toevoegen, maar in iets weghalen wat in de weg zit.

 

The map is not the territory

Ik hou echt van modellen; structuur geeft mij rust. Maar er zit ook een valkuil in. Op een gegeven moment ga je geloven dat het model de werkelijkheid is. Dat een framework de waarheid beschrijft. Terwijl de echte wereld rommelig is, tegenstrijdig, soms gewoon niet logisch. Dit besef heeft me voorzichtiger gemaakt. Minder snel overtuigd. En eerlijk gezegd ook iets nieuwsgieriger naar wat er buiten het model valt.

 

The illusion of explanatory depth

Ik dacht vaak dat ik dingen begreep. Totdat iemand zei: leg het eens uit in Jip & Janneketaal. Dan merk je ineens hoeveel gaten er nog zitten. Ik gebruik dit nu bewust. Als ik iets niet simpel kan uitleggen, dan snap ik het blijkbaar nog niet goed genoeg. Dat is soms frustrerend, maar ook eerlijk.

 

Compounding

Dit is zo’n inzicht dat langzaam binnenkomt; financieel, lichamelijk, zakelijk, prive… Je denkt dat grote stappen het verschil maken. Maar meestal zijn het juist de kleine dingen die je blijft herhalen. Een gesprek hier, een idee daar, iets dat je net iets beter doet dan gisteren. Op zichzelf stelt het weinig voor, maar opgeteld verandert het alles. Het heeft me geduldiger gemaakt. En misschien ook iets minder gehaast.

 

Skin in the game

Ik ben anders gaan luisteren naar mensen. Niet alleen naar wat iemand zegt, maar naar wat er voor hem of haar op het spel staat. Heeft iemand iets te verliezen? Of is het vooral makkelijk praten? Dat maakt een enorm verschil. Je voelt het ook meteen. Sommige adviezen klinken goed, maar dragen geen gewicht. Sinds ik dat zie, neem ik niet alles meer zomaar aan.

 

Attention is the new scarcity

We hebben geen gebrek aan informatie. Daar verdrinken we juist in. Wat schaars is, is aandacht. Echte aandacht. Ik merk het bij mezelf ook. Hoe snel je afgeleid bent, hoe moeilijk het is om ergens echt bij te blijven. Dat heeft me bewuster gemaakt van hoe ik dingen tot me neem, maar ook van wat ik zelf de moeite waard vind om aandacht aan te geven. Want uiteindelijk is dat misschien wel de belangrijkste keuze die je maakt.

 

Circle of competence

Dit model gaat over iets heel onsexy, maar heel waardevols: weten waar je echt verstand van hebt, en waar je vooral heel zelfverzekerd klinkt . Echt het kennen van de grens van je eigen expertise zij een vriend laatst.  Ik vond dit eerst bijna te bescheiden klinken. Alsof je jezelf klein maakt. Inmiddels zie ik het juist als volwassenheid. Een paar van mijn slechtste keuzes begonnen namelijk met het idee dat ik iets “heus wel ongeveer snapte”. Dat is een gevaarlijke zin. Dit model heeft me niet kleiner gemaakt, maar rustiger. Je hoeft niet overal een mening over te hebben. Je hoeft niet overal in te springen. Soms is de slimste zet gewoon: dit is niet mijn terrein.

 

Survivorship bias

Survivorship bias is de neiging om vooral naar de winnaars te kijken en te vergeten hoeveel verliezers exact hetzelfde probeerden. James Clear beschrijft het heel helder als onze focus op de succesverhalen, terwijl we de mensen die met dezelfde strategie faalden nauwelijks zien.

Dit inzicht heeft me echt geholpen om minder naïef te worden. Je ziet een ondernemer, maker of investeerder die iets briljants deed, en voor je het weet denk je: dát is het recept. Tot je beseft dat je vooral naar de overlevenden kijkt. Het heeft me geleerd om achter succesverhalen te kijken. Niet cynisch, wel eerlijker. Achter elk glanzend voorbeeld zit meestal een kerkhof aan pogingen die niemand meer doorstuurt.

 

Availability heuristic

De availability heuristic is een bekende denkfout waarbij iets belangrijker of waarschijnlijker lijkt, puur omdat het snel in je hoofd opkomt. Wat gemakkelijk in gedachten komt, voelt al snel als het meest relevant of het meest voorkomend.

Ik ben dit vooral bij mezelf gaan herkennen als ik ergens bang voor was, of juist overdreven enthousiast. Eén sterk verhaal, één bizarre uitzondering, één nieuwsbericht en je brein doet alsof het de norm is. Best gênant eigenlijk, hoe makkelijk dat werkt. Dit model heeft me geholpen om minder te reageren op wat hard binnenkomt, en meer op wat echt representatief is. Niet alles wat dichtbij voelt, is groot. Niet alles wat luid is, is waar.

 

Confirmation bias

Confirmation bias is onze neiging om vooral informatie te zoeken of te geloven die bevestigt wat we al dachten. Het cherry-picken van informatie die onze bestaande ideeën ondersteunt.

Toen ik dit echt begon te zien, werd het ongemakkelijk. Je denkt graag dat je open-minded bent, maar vaak ben je gewoon slim in het verdedigen van je eerste gevoel. Ik herken het inmiddels in discussies, in media, in vriendschappen, in mezelf. Dit model heeft me niet objectief gemaakt, dat zou een groot woord zijn, maar wel iets minder verliefd op mijn eigen gelijk. Dat is al winst.

 

Goodhart’s law

Goodhart’s law wordt vaak samengevat als: zodra een maatstaf een doel wordt, houdt die maatstaf op een goede maatstaf te zijn.  Ik vind dit een heerlijk venijnig model, omdat het zo vaak klopt. Zodra je iets gaat najagen omdat het meetbaar is, ontstaat er toneel. Dan wordt het getal belangrijker dan de bedoeling. Je ziet het bij bedrijven, op social media, in onderwijs, in gezondheid, eigenlijk overal. Voor mij was dit een goede waarschuwing om niet verliefd te worden op KPI’s, likes, omzetjes, streaks of andere verslavende tellertjes. Wat je meet, kan nuttig zijn. Wat je aanbidt, gaat je meestal vernauwen.

 

Parkinson’s law

Parkinson’s law stelt dat werk zich uitbreidt tot de tijd die ervoor beschikbaar is. Dit model heeft me pijnlijk vaak ontmaskerd. Geef me drie weken en ik doe alsof iets drie weken nodig heeft. Geef me drie uur en opeens blijkt het wonderbaarlijk genoeg ook te kunnen. Niet altijd even goed, maar wel vaak goed genoeg. Het heeft me geleerd dat “meer tijd” niet automatisch “meer kwaliteit” betekent. Soms is tijd geen cadeau, maar een moeras.

 

Choice architecture

Choice architecture is het idee dat de manier waarop keuzes worden ingericht ons gedrag sterk beïnvloedt. Hoe je omgeving beslissingen makkelijker of moeilijker maakt. Dit is een van die concepten die je leven niet spectaculair veranderen, maar wel stilletjes verbeteren. Ik ben minder gaan vertrouwen op discipline en meer op inrichting. Leg iets binnen handbereik en je doet het sneller. Maak iets irritant en je doet het minder. Klinkt bijna flauw simpel, maar juist daarom werkt het. Mijn leven werd beter toen ik stopte met mezelf steeds opnieuw te willen overrulen, en gewoon de omgeving slimmer ging zetten.

 

Lindy effect

De Lindy effect is het idee dat dingen die al lang bestaan, een grotere kans hebben om ook nog lang te blijven bestaan.  Ik hou van nieuwe dingen. Nieuwe tools, nieuwe trends, nieuwe verhalen. Misschien juist daarom had ik dit concept nodig. De Lindy effect herinnert me eraan dat oud niet saai is, maar vaak getest. Sommige ideeën leven nog omdat ze taai zijn. Omdat ze iets raken dat niet modegevoelig is. Het heeft me geholpen om minder onder de indruk te zijn van het nieuwste speeltje en weer wat vaker terug te keren naar wat al decennia overeind blijft.

 

Preference falsification

Preference falsification gaat over het verbergen van je echte voorkeur of overtuiging in het openbaar. Het verschil tussen wat mensen echt vinden en wat ze hardop zeggen; mechanisme dat coördinatie kan blokkeren. Dit concept vond ik meteen fascinerend, omdat het zo veel verklaart. Waarom groepen soms ineens lijken te kantelen. Waarom iedereen in een ruimte iets lijkt te vinden, terwijl dat achteraf helemaal niet zo blijkt. Waarom stilte soms geen instemming is, maar camouflage. Voor mijn eigen leven was het vooral een ongemakkelijke spiegel. Hoe vaak zeg je precies wat je denkt? En hoe vaak kies je voor sociale veiligheid? Meer dan ik lang wilde toegeven.

 

Antifragility

Antifragility is het idee dat sommige dingen niet alleen bestand zijn tegen stress of chaos, maar er zelfs beter van worden. Resilient blijft hetzelfde, antifragile groeit door schokken en onzekerheid.   Dit model is me dierbaar geworden omdat het iets hoopvols heeft zonder zoet te worden. Niet alles hoeft glad, veilig en voorspelbaar te zijn om goed uit te pakken. Sommige dingen worden juist sterker door wrijving. Een lichaam, een idee, een mens soms ook. Het hielp me om anders naar gedoe te kijken. Niet elk probleem is een teken dat je verkeerd zit. Soms is het precies de belasting die iets sterker maakt, zolang het je niet breekt maar prikkelt.

 

Hanlon’s razor

Er zijn momenten geweest waarop ik ergens veel te veel achter zocht. Iemand reageert kort, iets loopt stroef, een kans gaat niet door, en je hoofd maakt er meteen een film van. Hanlon’s razor heeft me daar vaak uitgehaald: schrijf niet aan kwade wil toe wat ook prima verklaard kan worden door onhandigheid, drukte of gewone menselijke chaos. Ga niet te snel uit van kwaadaardige intenties als onbekwaamheid een simpelere verklaring is.   Wat dit met mijn leven deed, is eigenlijk heel simpel: minder drama. Minder projectie. Minder energieverlies aan verhalen die vooral in mijn eigen hoofd bestonden.

 

Via negativa

Ik vond dit meteen een heerlijk concept, juist omdat het ingaat tegen onze reflex om altijd méér te willen. Via negativa draait om verbeteren door iets weg te halen in plaats van toe te voegen. Denken in eliminatie: niet steeds vragen wat erbij moet, maar wat eraf kan.   Voor mij was dit bijna een opluchting. Niet elk probleem vraagt om een extra tool, extra plan, extra afspraak of extra ambitie. Soms wordt iets beter als je de ruis verwijdert. Minder troep in je agenda. Minder mensen om je heen die energie lekken. Minder woorden als iets ook in één zin kan.

 

Chesterton’s fence

Dit model zegt in feite: breek iets pas af als je eerst begrijpt waarom het er staat. Een waarschuwing om eerst te begrijpen waarom iets is zoals het is, voordat je eraan gaat sleutelen.  Ik had vroeger iets meer vertrouwen in mijn eigen frisse blik dan gezond was. Dan dacht ik: dit kan efficiënter, simpeler, sneller. Soms klopte dat. Soms sloopte ik gewoon iets waarvan ik de functie nog niet zag. Dit model maakte me minder roekeloos. Niet behoudend, wel iets wijzer. Er is vaak een reden waarom iets is gegroeid zoals het is, ook als die reden niet meteen sexy oogt.

 

Probabilistic thinking

Probabilistisch denken klinkt zwaarder dan het voelt. Het komt neer op leren leven in kansen in plaats van zekerheden. Het inschatten van de waarschijnlijkheid dat een bepaalde uitkomst gebeurt, met hulp van logica en waarschijnlijkheid.  Ik heb hier veel aan gehad, juist omdat ik vroeger te vaak in zwart-wit dacht. Dit lukt of het mislukt. Iemand is briljant of waardeloos. Een idee wordt groot of het is niks. Inmiddels denk ik vaker: er is een redelijke kans dat dit werkt, maar zeker weet ik het niet. Dat maakt je niet zwakker. Het maakt je eerlijker. En eerlijk gezegd ook rustiger.

 

Regression to the mean

Een heel nuttig, bijna vernederend concept. Regression to the mean betekent dat extreme uitslagen vaak worden gevolgd door normalere uitslagen. Een statistische tendens: extreme resultaten blijven meestal niet extreem.  Dit had ik echt eerder moeten begrijpen. Na een uitzonderlijk goede dag denk je al snel dat je een nieuw niveau hebt bereikt. Na een slechte periode denk je dat alles instort. Vaak is dat gewoon niet waar. Soms ben je niet ineens geniaal geworden, maar had je wind mee. Soms ben je ook niet kapot, maar gewoon even uit ritme. Dit model haalde wat theater uit mijn zelfbeeld.

 

The bikeshed effect

Bikeshedding is de neiging om eindeloos te praten over kleine, makkelijke dingen en de moeilijke, belangrijke dingen te ontwijken. Echt onze vreemde drang om buitensporig veel tijd te besteden aan triviale details, terwijl de echte kern blijft liggen.  Toen ik dit leerde kennen, herkende ik ineens hele vergaderingen, hele discussies en eerlijk gezegd ook stukken van mezelf. We willen graag slim klinken op terrein waar we grip op voelen. Dus hebben we een uitgesproken mening over de kleur van iets, de titel van iets, de volgorde van drie onbelangrijke punten. Ondertussen blijft de echte vraag onaangeraakt. Pijnlijk herkenbaar. En ook behoorlijk grappig, als je het eenmaal ziet.

 

Reversible and irreversible decisions

Sommige beslissingen zijn omkeerbaar, andere niet. Omkeerbare beslissingen moet je sneller nemen. Onomkeerbare beslissingen juist trager.   Ik heb best lang gedaan alsof elke keuze van levensbelang was. Dat is vermoeiend. Dit model gaf lucht. Niet alles is een huwelijk, een tatoeage of een brug die je opblaast zodra je eroverheen bent. Veel dingen kun je gewoon proberen. En als het niks is, draai je terug. Alleen al dat inzicht heeft me op meerdere momenten uit verlamming gehaald.

 

26 Bayes’ theorem

Ik snap dat dit technisch klinkt, maar de kern  is eigenlijk heel menselijk. Bayesiaans denken gaat erover dat je je kansinschatting bijwerkt zodra er nieuwe informatie bijkomt. Je moet je waarschijnlijkheden voortdurend aanpassen op basis van wat je leert.

Wat ik hier mooi aan vind, is dat het een elegante manier is om van mening te veranderen zonder je ruggengraat te verliezen. Je was niet per se dom toen je iets eerder dacht. Je had toen andere informatie. Inmiddels weet je meer, dus stuur je bij. Dat idee heeft me geholpen om minder koppig te zijn en tegelijk niet in totale besluiteloosheid te verdwijnen.

 

Sunk cost fallacy

Deze doet pijn omdat bijna iedereen hem kent, maar toch telkens opnieuw intrapt. De sunk cost fallacy is de neiging om door te gaan met iets puur omdat je er al tijd, geld, energie of liefde in hebt gestoken. Ik heb er zelf echt op vastgezeten. Te lang doorgaan met iets omdat stoppen voelde als verlies. Terwijl doorgaan vaak gewoon duurder verlies was, maar dan uitgesmeerd over meer maanden. Dit model heeft me geholpen om eerlijker te kijken naar de vraag: als dit vandaag nieuw op mijn pad kwam, zou ik er dan opnieuw instappen? Zo niet, dan weet je vaak al genoeg.

 

Regret minimization framework

Jeff Bezos maakte dit bekend als manier om grote keuzes te beoordelen: waar krijg ik later het meeste spijt van als ik het níet doe? Dit was zijn manier om door de ruis van kleine zorgen heen te prikken en te kijken naar wat op latere leeftijd nog echt gewicht heeft.   Ik vind dit een prachtig model omdat het direct op je zenuw werkt. Niet op je spreadsheet, maar op je leven. Er zijn momenten waarop ratio alleen niet genoeg is. Dan helpt het om jezelf voor te stellen op een leeftijd waarop status, timing en sociale ruis veel minder indruk maken. Wat zou daar nog steken? Welke keuze zou blijven schuren? Dat perspectief heeft me op een paar cruciale momenten meer geholpen dan honderd nette argumenten.

 

Occam’s razor

Ik was vroeger best goed in dingen ingewikkelder maken dan nodig was. Extra verklaringen, extra lagen, extra scenario’s. Alsof die complexiteit automatisch slimmer was. Occam’s razor was voor mij een nuchtere tik op de vingers: de simpelste verklaring is vaak de beste plek om te beginnen. Niet altijd de juiste, wel vaak de minst domme. Dat heeft me veel ruis bespaard. Soms hoef je niet nog een theorie te bouwen. Soms is iemand gewoon te laat omdat hij te laat vertrok.

 

Fundamental attribution error

Dit concept vond ik pijnlijk herkenbaar. Als iemand anders iets stoms doet, denken we al snel: typisch die persoon. Als wij zelf iets stoms doen, denken we: ja, maar de omstandigheden waren ook waardeloos. Die denkfout bestaat echt en heet de fundamental attribution error. Ik ben daardoor iets milder geworden in mijn oordelen. Niet soft, wel voorzichtiger. Je weet zelden het hele decor van iemands gedrag.

 

Optionality

Optionality klinkt bijna financieel, maar voor mij werd het vooral een levenshouding. Niet te snel alles vasttimmeren. Niet meteen al je speelruimte opgeven. Farnam Street beschrijft het als het openhouden van opties en het vermijden van onnodige afhankelijkheden. Dat heeft me geholpen om keuzes soms lichter te maken. Je hoeft niet altijd direct voor altijd te kiezen. Sommige fases vragen niet om commitment, maar om beweegruimte.

 

Path dependence

Sommige dingen zijn niet logisch omdat ze goed zijn, maar omdat ze ooit zo begonnen zijn en daarna nooit meer echt zijn herzien. Dat is path dependence. Ik vind dat een heerlijk ontmaskerend concept. Het heeft me geholpen om anders te kijken naar gewoontes, systemen en ook naar mezelf. Waarom doe ik dit eigenlijk nog zo? Niet omdat het de beste route is, maar vaak gewoon omdat ik ooit die afslag nam en daarna ben blijven rijden.

 

Loss aversion

Dit model verklaart iets wat ik al lang voelde maar niet goed kon benoemen: verlies doet meestal zwaarder pijn dan winst plezier geeft. Daarom blijven mensen te lang hangen, verdedigen ze het oude, of stellen ze verandering uit terwijl ze diep vanbinnen al weten dat het moet. Voor mij was dit een nuttig inzicht omdat het iets blootlegt wat heel menselijk is. Niet elk vasthouden is trouw. Soms is het gewoon angst om iets kwijt te raken.

 

False consensus effect

Ik denk dat bijna iedereen hier vaker intrapt dan hij wil toegeven. Je vindt iets logisch, duidelijk of normaal en voor je het weet denk je dat de meeste anderen dat vast ook zo zien. Dat heet het false consensus effect. Bij mij werkte dit als een correctie op mijn eigen vanzelfsprekendheden. Wat voor mij helder is, is dat nog lang niet voor een ander. Wat ik normaal vind, kan voor iemand anders totaal vreemd zijn. Dat besef maakt je minder arrogant, en meestal ook interessanter.

 

Hormesis

Hormesis is het idee dat een beetje stress of belasting niet alleen draaglijk is, maar je soms juist sterker maakt. Niet elke prikkel is schadelijk. Sommige prikkels zijn precies wat groei uitlokt. Ik vind dat een prettig tegenwicht tegen het idee dat alles comfortabel moet zijn. Niet elk ongemak is een waarschuwing. Soms is het een trainingsprikkel. Dat inzicht heeft me geholpen om minder hard weg te bewegen van spanning, zolang die spanning me vormt en niet sloopt.

 

Growth mindset

Ik weet dat dit concept inmiddels bijna te bekend is geworden, maar juist daarom vergeten mensen soms hoe waardevol het eigenlijk is. Het idee is simpel: talent staat niet vast, je kunt groeien door oefening, feedback en volhouden. Wat ik er zelf vooral uit haalde, was iets anders: je hoeft niet nu al goed te zijn om ergens serieus mee te beginnen. Dat klinkt simpel, maar voor perfectionisten is het bijna revolutionair.

 

Mimetic desire

Deze vond ik fascinerend toen ik hem echt begon te begrijpen. Het idee komt uit het werk van René Girard en wordt onder meer door Luke Burgis populair gemaakt: we verlangen vaak niet puur uit onszelf, maar omdat we zien dat anderen iets verlangen. Met andere woorden: veel van wat we willen, willen we omdat iemand anders het ook wil. Dat inzicht heeft me veel scherper gemaakt. Is dit echt mijn verlangen, of heb ik het ergens opgepikt? Dat is geen kleine vraag.

 

Agency

Agency is geen modewoord voor mij, maar een soort innerlijke motor. Het gaat over het gevoel en het vermogen dat je kunt handelen, invloed kunt uitoefenen en niet alleen hoeft te reageren op wat er op je afkomt. Ik vind dat een van de belangrijkste concepten van allemaal. Op slechte dagen voelt het leven alsof het met je gebeurt. Op betere dagen herinner ik me dat er bijna altijd ergens een knop is waar je wel degelijk aan kunt draaien. Al is die klein.

admin

Jan Scheele werkt dertien jaar op het snijvlak van deep tech, strategie en leiderschap. Als keynote spreker en dagvoorzitter maakt hij technologie tastbaar voor boardrooms, directieteams en grote podia, zonder de complexiteit te versimpelen of te verbergen achter buzzwords.

Zijn achtergrond ligt in het bouwen. Als CEO van een technologie scale-up, oprichter van meerdere techbedrijven en organisator van meer dan vijftig TED-events wereldwijd zag hij van dichtbij hoe technologische keuzes doorwerken in strategie, governance en cultuur. Vanuit zijn betrokkenheid bij het World Economic Forum en de BCNL Foundation kijkt hij daarbij niet alleen naar wat technisch mogelijk is, maar ook naar wat bestuurlijk houdbaar en maatschappelijk wenselijk is.

Hij publiceerde vijf boeken, waarvan twee Amazon-bestsellers, en schrijft wekelijks over AI, blockchain en de organisatorische gevolgen van deep tech. Zijn blogs bereikten inmiddels meer dan twee miljoen lezers.

Steeds meer mensen sturen een virtuele avatar naar een vergadering. Maar willen we dat wel?

Steeds meer mensen sturen een virtuele avatar naar een vergadering. Maar willen we dat wel?

Eerlijk toegegeven, ik heb het als nerd ook wel eens gedaan. Puur voor de lol, maar ook om reacties te checken. Het voelde ook wel echt als een nerd gimmick. Maar inmiddels is het een serieuze keuze geworden, omdat het super makkelijk gemaakt is door een aantal bekende tech bedrijven.

 

Je kunt vandaag heel gemakkelijk, letterlijk op drie plekken tegelijk “aanwezig” zijn. Tools als Microsoft Teams, Zoom en gespecialiseerde platforms zoals Synthesia en HeyGen maken het mogelijk dat jouw digitale versie praat, reageert en zelfs vragen stelt namens jou.

 

De vraag is dus alleen niet meer of het kan…. de vraag is of je het wilt. Als teamgenoot, maar ook als leider van een organisatie.

 

Want onder de oppervlakte speelt in mijn optiek iets interessants. Adoptie groeit snel bij individuen, vooral in sales en tech, waar schaalbaarheid telt. Tegelijk trekken grote instituties juist een grens.

De European Commission verbood AI-agenten in meetings vanwege privacyrisico’s. Talloze universiteiten blokkeren deze tools actief. En ondertussen ontstaat er iets nieuws: ‘Shadow AI’ (medewerkers gebruiken deze tools gewoon stiekem, omdat de productiviteitswinst simpelweg te groot is)

 

Technisch gezien is het ook echt heel indrukwekkend. Virtuele Avatars die jouw stem en mimiek nabootsen, soms hyperecht. Bots die samenvatten, prioriteren en zelfs reageren in real-time. Maar juist daar begint het spanningsveld.

 

Onderzoek laat zien dat mensen ongemak ervaren wanneer iets bijna menselijk is, maar net niet. Die “uncanny valley” speelt nu ook in de boardroom. Vertrouwen daalt en besluiten voelen minder gedragen.

 

Een ander effect is subtieler, maar misschien wel belangrijker. Teams worden efficiënter, maar minder creatief. Als iedereen dezelfde AI gebruikt, verdwijnen afwijkende ideeën. Frictie verdwijnt…. en precies daar ontstaan normaal gesproken de beste inzichten.

 

Daarnaast is er iets menselijks wat we moeilijk meten, maar direct voelen. Als jij een bot stuurt naar een gesprek waar anderen wél aanwezig zijn, wat zeg je dan eigenlijk? Vaak wordt het geïnterpreteerd als: mijn tijd is belangrijker dan dit gesprek. Dat raakt cultuur, niet technologie.

Voor leiders wordt dit dus geen toolvraag, maar een keuze over gedrag. Wanneer is jouw aanwezigheid essentieel? Wanneer volstaat representatie?

Virtuele avatars werken trouwens uitstekend voor updates, samenvattingen en informatieoverdracht. Ze falen juist op empathie, timing en nuance. Precies de elementen waarop leiderschap het verschil maakt in mijn optiek.

Misschien is dat de kern van deze ontwikkeling. Niet dat technologie ons vervangt in meetings, maar dat het ons dwingt om scherper te kiezen waar we echt aanwezig moeten zijn. Want uiteindelijk bouw je als leider geen vertrouwen via efficiëntie, maar via aandacht.

admin

Jan Scheele werkt dertien jaar op het snijvlak van deep tech, strategie en leiderschap. Als keynote spreker en dagvoorzitter maakt hij technologie tastbaar voor boardrooms, directieteams en grote podia, zonder de complexiteit te versimpelen of te verbergen achter buzzwords.

Zijn achtergrond ligt in het bouwen. Als CEO van een technologie scale-up, oprichter van meerdere techbedrijven en organisator van meer dan vijftig TED-events wereldwijd zag hij van dichtbij hoe technologische keuzes doorwerken in strategie, governance en cultuur. Vanuit zijn betrokkenheid bij het World Economic Forum en de BCNL Foundation kijkt hij daarbij niet alleen naar wat technisch mogelijk is, maar ook naar wat bestuurlijk houdbaar en maatschappelijk wenselijk is.

Hij publiceerde vijf boeken, waarvan twee Amazon-bestsellers, en schrijft wekelijks over AI, blockchain en de organisatorische gevolgen van deep tech. Zijn blogs bereikten inmiddels meer dan twee miljoen lezers.

Dit land verdient een derde van haar BBP met Bitcoin en kon daardoor al de salarissen van ambtenaren verdubbelen.

Dit land verdient een derde van haar BBP met Bitcoin en kon daardoor al de salarissen van ambtenaren verdubbelen.

Soms gebeuren de interessantste economische experimenten ver buiten de schijnwerpers. Neem Bhutan. Een klein Himalayaland met nog geen 800.000 inwoners dat de afgelopen jaren in stilte iets opmerkelijks deed: op bepaalde momenten verdiende het land met Bitcoin bijna een derde van zijn hele BBP.

Geen hypecampagne, geen grote aankondiging… gewoon een slimme economische zet. Het land begon rond 2019 met Bitcoin-mining via het staatsinvesteringsfonds Druk Holding & Investments. De logica was simpel; het land produceert enorme hoeveelheden waterkracht. In bepaalde seizoenen bleef een groot deel daarvan ongebruikt of werd het goedkoop geëxporteerd naar India.

Tot de overheid zich afvroeg: wat als we die energie gebruiken om digitale waarde te creëren? Sindsdien bouwde Bhutan Bitcoin miningfaciliteiten naast waterkrachtcentrales in de Himalaya. Dankzij de koele berglucht zijn de koelingskosten laag. Dankzij waterkracht draait de mining vrijwel volledig op groene energie.

De cijfers zijn ook wel echt bizar voor zo’n klein land. Op het hoogtepunt in 2024 bezat Bhutan naar schatting zo’n 13.000 BTC. Inmiddels ligt de staatsreserve rond de 5.400 tot 5.700 BTC, met een waarde van ongeveer 370 tot 400 miljoen dollar. Op piekmomenten was de Bitcoinvoorraad zelfs meer dan 1 miljard dollar waard. Voor een land met een economie van ongeveer 3 miljard dollar heeft dat enorme impact.

Het geld wordt ook daadwerkelijk gebruikt. In 2023 verkocht Bhutan bijvoorbeeld voor ongeveer 100 miljoen dollar aan crypto om salarissen van ambtenaren te verhogen en zo een uitstroom van talent uit het land te stoppen. Tegelijk investeert het land in Gelephu Mindfulness City, een nieuwe economische zone waar technologie, fintech en AI samen moeten komen.

Bhutan is daarmee een van de eerste landen ter wereld dat Bitcoin behandelt als een nationale industrie. Interessant is dat steeds meer landen experimenteren met vergelijkbare strategieën. El Salvador koopt actief Bitcoin voor zijn staatsreserve. Iran gebruikt mining om internationale handel te financieren. Ethiopië wil overtollige energie van zijn megadam inzetten voor mining. Paraguay en Pakistan onderzoeken grote mining- en datacenterprojecten.

Daarnaast bezitten sommige landen enorme Bitcoinvoorraden via inbeslagnames. De Verenigde Staten hebben meer dan 320.000 BTC in handen. China bezit naar schatting zo’n 190.000 BTC. In totaal houden overheden wereldwijd inmiddels ongeveer een half miljoen Bitcoin vast.

Steeds vaker hoor ik daarom een vergelijking die tien jaar geleden nog ondenkbaar was; Bitcoin als digitaal goud. Of dat echt zo wordt, zal de toekomst uitwijzen. Wat Bhutan in ieder geval laat zien, is dat sommige landen Bitcoin niet zien als speculatie, maar als infrastructuur, als energie-industrie en als strategische reserve.

admin

Jan Scheele werkt dertien jaar op het snijvlak van deep tech, strategie en leiderschap. Als keynote spreker en dagvoorzitter maakt hij technologie tastbaar voor boardrooms, directieteams en grote podia, zonder de complexiteit te versimpelen of te verbergen achter buzzwords.

Zijn achtergrond ligt in het bouwen. Als CEO van een technologie scale-up, oprichter van meerdere techbedrijven en organisator van meer dan vijftig TED-events wereldwijd zag hij van dichtbij hoe technologische keuzes doorwerken in strategie, governance en cultuur. Vanuit zijn betrokkenheid bij het World Economic Forum en de BCNL Foundation kijkt hij daarbij niet alleen naar wat technisch mogelijk is, maar ook naar wat bestuurlijk houdbaar en maatschappelijk wenselijk is.

Hij publiceerde vijf boeken, waarvan twee Amazon-bestsellers, en schrijft wekelijks over AI, blockchain en de organisatorische gevolgen van deep tech. Zijn blogs bereikten inmiddels meer dan twee miljoen lezers.

Volgens Harvard krijgen we allemaal ‘brain fry’ door AI. Zo ga ik het tegen

Volgens Harvard krijgen we allemaal ‘brain fry’ door AI. Zo ga ik het tegen

Harvard University ontdekte een verassend nieuw probleem door AI: “brain fry”. Iets waar ik zelf ook steeds meer last van heb… en ook actie op onderneem.

AI zou ons werk lichter maken. Onderzoek van Harvard laat nu juist iets zien waar veel professionals zich meteen in zullen herkennen: AI kan óók mentale overbelasting veroorzaken. Ze noemen het “AI brain fry”. Geen hypewoord, maar een concreet patroon van mentale mist, tragere beslissingen, hoofdpijn en meer fouten zodra mensen te veel AI-tools tegelijk moeten aansturen of controleren. In het onderzoek onder 1.488 fulltime werkenden gaf 14% aan dit al te ervaren.

Het interessante is de paradox. AI verlaagt burnout niet per definitie, maar kan die juist wél helpen verminderen wanneer het saaie, repetitieve taken uit handen neemt. Tegelijk stijgt de mentale belasting fors wanneer mensen vooral toezichthouder van AI worden. Hoge AI-oversight hing in de studie samen met 14% meer mentale inspanning, 12% meer mentale vermoeidheid en 19% meer information overload.

Wat ik nog opvallender vond: productiviteit stijgt eerst, maar niet eindeloos. Bij 1-3 tools is er winst. Daarna zakt het effect weer weg. Meer AI is dus niet automatisch beter. Vooral marketeers bleken kwetsbaar: daar rapporteerde ongeveer 26% AI brain fry, veel meer dan bijvoorbeeld legal, waar het rond de 6% lag.

Dat raakt voor mij ook echt de kern van leiderschap. Veel organisaties plakken AI bovenop bestaand werk en noemen dat innovatie. In de praktijk betekent het vaak: meer tabs open, meer output beoordelen, meer beslissingen nemen, meer context vasthouden. Dus niet minder werkdruk, maar een nieuw soort werkdruk.

De echte les is in mijn optiek simpel: gebruik AI niet om meer chaos te produceren, maar om frictie weg te halen. Beperk het aantal tools, ontwerp werk opnieuw, beloon niet op volume maar op impact, en train mensen in wanneer ze moeten stoppen in plaats van steeds nóg een prompt te schrijven. Want een slimmer bedrijf is in mijn optiek niet het bedrijf dat zijn mensen maximaal laat schakelen. Het is het bedrijf dat hun aandacht beschermt.

Ik pak dit zelf als volgt aan:

1) Beperk je AI-stack. Onderzoek laat zien dat productiviteit stijgt tot ongeveer drie AI-tools tegelijk. Daarna daalt het effect juist. Minder tools betekent vaak meer focus.
2) Gebruik AI voor repetitief werk, niet voor alles. Laat AI vooral taken overnemen die saai of routinematig zijn. Wanneer je vooral AI-output moet controleren of bijsturen, stijgt de mentale belasting juist.
3) Werk in duidelijke blokken. Gebruik AI bijvoorbeeld 20 tot 30 minuten intensief, neem daarna even afstand van je scherm. Je brein heeft die reset nodig om weer helder te kunnen denken.

admin

Jan Scheele werkt dertien jaar op het snijvlak van deep tech, strategie en leiderschap. Als keynote spreker en dagvoorzitter maakt hij technologie tastbaar voor boardrooms, directieteams en grote podia, zonder de complexiteit te versimpelen of te verbergen achter buzzwords.

Zijn achtergrond ligt in het bouwen. Als CEO van een technologie scale-up, oprichter van meerdere techbedrijven en organisator van meer dan vijftig TED-events wereldwijd zag hij van dichtbij hoe technologische keuzes doorwerken in strategie, governance en cultuur. Vanuit zijn betrokkenheid bij het World Economic Forum en de BCNL Foundation kijkt hij daarbij niet alleen naar wat technisch mogelijk is, maar ook naar wat bestuurlijk houdbaar en maatschappelijk wenselijk is.

Hij publiceerde vijf boeken, waarvan twee Amazon-bestsellers, en schrijft wekelijks over AI, blockchain en de organisatorische gevolgen van deep tech. Zijn blogs bereikten inmiddels meer dan twee miljoen lezers.

Hoe voorkom je dat AI je dommer maakt? 6 tips

Hoe voorkom je dat AI je dommer maakt? 6 tips

Hoe voorkom je dat AI je dommer maakt?

We werken sneller dan ooit, maar denken minder diep. Steeds meer onderzoek laat zien dat als we taken uitbesteden aan AI, onze mentale inspanning daalt en onze kritische controle verslapt. Bij experimenten blijkt dat mensen hun eigen AI-gegenereerde teksten nauwelijks kunnen herinneren. Ook halveert de nauwkeurigheid bij complexe taken zodra het systeem blind wordt vertrouwd.

De vraag is dus niet of AI ons productiever maakt, maar wat het met ons denkvermogen doet. En hoe je dit effect kan ondervangen. In dit artikel ga ik in op de belangrijkste tips.

De angst dat technologie ons dommer maakt, is niet nieuw

Toen Socrates het schrift bekritiseerde, waarschuwde hij dat mensen hun geheugen zouden verliezen omdat kennis buiten het hoofd werd opgeslagen. In de 15e eeuw werd de boekdrukkunst gezien als een bedreiging voor diep denken, omdat informatie plotseling massaal beschikbaar werd. Bij de opkomst van televisie in de 20e eeuw voorspelden critici een generatie met een kortere aandachtsspanne.

Bij eerdere technologische revoluties zien we zelden pure cognitieve achteruitgang. Wat we wel zien, is een verschuiving. Het schrift verminderde de noodzaak om lange teksten letterlijk te onthouden en vergrootte het vermogen tot abstract denken en complexe argumentatie. De boekdrukkunst leidde niet tot minder intelligentie, maar tot een explosie van wetenschappelijke en filosofische vooruitgang. Tegelijkertijd tonen onderzoeken rond televisie en later sociale media wel degelijk een verband met een beperkt concentratievermogen en een hogere afleidbaarheid, vooral bij intensief gebruik.

Technologie maakt ons dus niet automatisch dommer. Ze verandert welke cognitieve vaardigheden we trainen. Sommige vermogens worden minder geoefend, andere juist versterkt. De vraag bij AI is daarom niet of dit patroon zich herhaalt, maar of de schaal en snelheid dit keer fundamenteel anders zijn.

Waar snelheid schuurt met scherpte

Veel marketing- & communicatieprofessionals werken inmiddels dagelijks met AI bij het schrijven van nieuwsbrieven, campagnes, social mediaposts, blogartikelen en strategievoorstellen. Juist daar zit het risico. Als je een concepttekst, campagneopzet of doelgroepanalyse door een AI-model laat genereren, verschuift jouw rol ongemerkt van bedenker naar beoordelaar. Je denkt niet meer vanaf nul, je reageert op iets wat er al is. Dit lijkt efficiënt, maar het verkleint de kans dat je zelf nieuwe invalshoeken ontwikkelt of aannames ter discussie stelt.

Als je alle studies naast elkaar legt, zie je een duidelijk (en schrikbarend) patroon. AI maakt ons werk vaak sneller en beter, maar die winst komt meestal doordat het systeem een deel van ons denkwerk overneemt. Een MIT-studie met honderden professionals liet zien dat de proefpersonen 37 procent sneller werkten met ChatGPT en dat de kwaliteit van hun werk omhoog ging. De onderzoekers zagen ook iets anders; de professionals deden minder moeite. Ze hoefden minder diep na te denken om tot een resultaat te komen. Dit heeft consequenties voor het leervermogen.

Je ziet dit effect nog duidelijker in onderzoek onder studenten. In een experiment met 91 deelnemers gebruikten sommige studenten ChatGPT en anderen ‘gewoon’ Google (dus niet Gemini). De ChatGPT-groep voelde minder mentale belasting, het werk was makkelijker. Daar staat tegenover dat hun argumenten minder sterk waren en minder goed onderbouwd. Oftewel: het voelde beter, maar het denken werd minder diep.

Het risico van blind vertrouwen

Een ander risico bij het gebruik van AI is het blinde vertrouwen erin. In experimenten waarbij mensen keuzes moesten maken met hulp van een AI-zoekmachine, werkten de proefpersonen bijna 2 keer zo snel. Ze stelden minder vragen. Maar bij moeilijke taken zakte de nauwkeurigheid naar 26 procent als AI geen duidelijk signaal gaf over onzekerheid van het antwoord. Toen onderzoekers onzekerheidsmeldingen toevoegden, steeg de nauwkeurigheid naar boven de 50 procent. Dat laat zien hoe snel we geneigd zijn AI blindelings te volgen zonder extra controle.

Ook in het onderwijs zie je dit effect inmiddels terugkomen. In een studie naar natuurkundeproblemen nam bijna de helft van de studenten een fout AI-antwoord klakkeloos over. Veel deelnemers kopieerden hun vraag direct in ChatGPT en dachten minder zelf na. Ik vind dit een zorgelijke ontwikkeling, want juist bij moeilijke vraagstukken leer je door zelf te worstelen.

Werk sneller met AI

In organisaties speelt nog een ander risico. Onderzoekers van Harvard Business School en Boston Consulting Group ontdekten dat mensen beter presteren met AI binnen een kennisgebied waarin het model sterk is. Valt een taak net buiten dat gebied? Dan maken gebruikers van AI meer fouten, terwijl ze wel sneller blijven werken. Dat is gevaarlijk. Je gaat sneller vooruit, maar wellicht niet in de juiste richting.

Ook ons brein krijgt het te verduren. Een recente studie met hersenmetingen laat zien dat mensen minder brede hersenactiviteit laten zien wanneer ze schrijven met hulp van een Large Language Model (LLM). Overigens is dit onderzoek nog niet definitief en wordt het ook bekritiseerd. Wat we wel zeker weten, is dat minder actieve inspanning vaak betekent dat informatie minder goed blijft hangen.

Als je alles samenneemt, ontstaat er wel echt een nuchter beeld. AI maakt ons productiever. Tegelijkertijd vergroot het ook de kans dat we minder diep denken, minder kritisch controleren en sneller vertrouwen op een systeem dat niet altijd gelijk heeft. Het probleem zit dus niet in de technologie, maar in de manier waarop wij ermee omgaan.

Hoe ik zelf voorkom dat AI mijn denkspieren lui maakt

Bovenstaande uitdagingen kwam ik zelf een tijdje geleden al tegen en ik ben hier gelijk op gaan acteren. Ik gebruik AI namelijk elke dag, uren lang. Voor research, structuur, sparren, ideeën en meer. Maar ik wil niet dat het mijn denkwerk volledig vervangt. Daarom heb ik een paar vaste regels voor mezelf.

1. Eerst zelf denken, dan pas AI

Als ik meteen naar ChatGPT ga, voelt alles makkelijker. Maar ik merk ook dat mijn eigen redenering dan minder scherp wordt. Daarom dwing ik mezelf om eerst een ruwe outline te maken. Wat is mijn stelling? Welke argumenten heb ik? Waar twijfel ik? Pas daarna gebruik ik AI om gaten te vinden of tegenargumenten te formuleren. AI komt bij mij pas in beeld als ik zelf al heb nagedacht.

2. Gebruik AI als criticus, niet als ghostwriter

AI kan mijn eerste gedachte bevestigen en dat voelt comfortabel, maar bevestiging maakt je niet beter. Daarom vraag ik bijna altijd wat er niet klopt aan mijn redenering. Welke tegenargumenten mis ik? Waar zit een denkfout? Door het systeem mijn ideeën te laten bekritiseren, dwing ik mezelf om mijn eigen logica opnieuw testen. Dit kost meer moeite en precies dat houdt mijn denken scherp.

3. Forceer twijfel en controle

Onderzoek laat zien dat mensen sneller fouten maken als AI geen onzekerheid toont. Daarom vraag ik expliciet waar het systeem niet zeker van is: ‘welke aannames doe je?’ ‘Welke claims moet ik controleren?’ Bij belangrijke onderwerpen zoek ik altijd een tweede bron. Ik wil niet dat snelheid mijn kritische blik vervangt.

4. Laat AI helpen bij ideeën, niet bij de eindbeslissing

AI is sterk in variaties en invalshoeken. Daar gebruik ik het graag voor. Ik laat het 10 tot 20 mogelijke perspectieven of voorbeelden geven. Daarna sluit ik het venster en kies ik zelf. Ik wil voelen waarom iets klopt. Dat gevoel ontwikkel je alleen als je zelf beslist.

5. Plan AI-vrije denkblokken

Als uitbesteden altijd kan, dan doe je het ook. Dat is menselijk. Daarom plan ik bewust momenten zonder hulpmiddelen. 20 Minuten schrijven zonder AI, gewoon nadenken en formuleren. Die frictie is soms ongemakkelijk, maar juist daar ontstaan mijn beste inzichten.

6. Gebruik AI om te overhoren in plaats van te vervangen

Als ik iets echt wil begrijpen, moet ik het kunnen uitleggen. In plaats van om een samenvatting te vragen, vraag ik om kritische vragen. Of om een analyse van zwakke plekken in mijn uitleg. Zo dwing ik mezelf om kennis actief op te halen in plaats van passief te consumeren. Ik merk steeds meer dat AI gevaarlijk wordt wanneer het ongemerkt mijn denkproces vervangt. Het wordt daarentegen juist heel krachtig als het mijn denken uitdaagt.

In marketing draait concurrentie steeds minder om wie de meeste content kan produceren. Het gaat om wie juist het beste kan denken. Als iedereen met dezelfde AI modellen werkt, ontstaat er een risico op ‘strategische middelmatigheid’: campagnes die logisch klinken, maar niet echt meer onderscheidend zijn. Juist daarom is het belangrijk om AI niet in te zetten als eerste stap in je denkproces.

Als gemak structureel wordt, wie bewaakt dan onze cognitieve autonomie?

Over de toekomst zijn wetenschappers het niet volledig eens, maar 1 punt keert steeds terug in de onderzoeken die ik lees: AI zal niet verdwijnen uit ons denkproces, het zal er steeds dieper in verweven raken. Het gaat dus niet om de vraag of we ermee werken, maar hoe we ermee werken. Economische studies laten zien dat generatieve AI productiviteit structureel kan verhogen, vooral bij kenniswerk en bij minder ervaren professionals. Organisaties als de OECD verwachten dat AI werkprocessen blijvend verandert, met meer nadruk op toezicht, controle en samenwerking tussen mens en machine.

Dit betekent dat de rol van de mens verschuift van uitvoerder naar beoordelaar en beslisser. Tegelijk waarschuwen onderzoekers voor een zogenoemd leergat. Als basisvaardigheden zoals schrijven, redeneren of analyseren minder worden geoefend, kan er een generatie ontstaan die sterk is in het aansturen van AI, maar zwakker in zelfstandig denken. Zeker bij jongeren, waarvan het brein nog in ontwikkeling is, wordt dat als een reëel risico gezien.

AI slimmer wordt dan wij

De vraag voor de komende decennia is daarom niet of AI slimmer wordt dan wij. De echte vraag is of wij blijven investeren in onze eigen cognitieve autonomie. Ik zie AI niet als vijand van ons brein, maar het is ook geen neutraal hulpmiddel. Het versterkt wat wij ermee doen. Gebruik je het om sneller klaar te zijn, dan word je efficiënter. Gebruik je het om frictie te vermijden, dan train je minder. Zet je het in om je denken uit te dagen, dan kan het juist een katalysator zijn voor groei.

Zoals ik het zie is de echte vaardigheid in het gebruik van AI niet optimaal leren prompten. Het gaat om kiezen wanneer je dit juist niet doet. Cognitieve autonomie is geen luxe, het is een belangrijke discipline. Niet omdat AI ons dom maakt, maar omdat gemak altijd de neiging heeft om ons minder scherp te maken. Terwijl de toegevoegde waarde van marketing- & communicatieprofessionals in mijn optiek juist steeds meer zal liggen in het kritisch kunnen beoordelen, uitdagen en sturen van AI-gegenereerde ideeën.

admin

Jan Scheele werkt dertien jaar op het snijvlak van deep tech, strategie en leiderschap. Als keynote spreker en dagvoorzitter maakt hij technologie tastbaar voor boardrooms, directieteams en grote podia, zonder de complexiteit te versimpelen of te verbergen achter buzzwords.

Zijn achtergrond ligt in het bouwen. Als CEO van een technologie scale-up, oprichter van meerdere techbedrijven en organisator van meer dan vijftig TED-events wereldwijd zag hij van dichtbij hoe technologische keuzes doorwerken in strategie, governance en cultuur. Vanuit zijn betrokkenheid bij het World Economic Forum en de BCNL Foundation kijkt hij daarbij niet alleen naar wat technisch mogelijk is, maar ook naar wat bestuurlijk houdbaar en maatschappelijk wenselijk is.

Hij publiceerde vijf boeken, waarvan twee Amazon-bestsellers, en schrijft wekelijks over AI, blockchain en de organisatorische gevolgen van deep tech. Zijn blogs bereikten inmiddels meer dan twee miljoen lezers.

Na ‘dark factories’ zien we nu ‘zero human companies’ ontstaan: ben jij daar als leider klaar voor?

Na ‘dark factories’ zien we nu ‘zero human companies’ ontstaan: ben jij daar als leider klaar voor?

Stel je voor dat je ’s ochtends wakker wordt en ziet dat je bedrijf ’s nachts een nieuw product heeft gelanceerd. De website staat online, de marketingcampagne draait al en de eerste betalingen zijn binnen. Het bijzondere: niemand heeft eraan gewerkt.

Dit klinkt futuristisch, maar het idee van zogenoemde zero-human companies zie ik steeds vaker op te duiken in de techwereld. Bedrijven waarin AI-agents vrijwel alle operationele taken uitvoeren. Marketing, productontwikkeling, klantenservice, administratie. Alles wordt gedaan door software die met elkaar samenwerkt. De menselijke rol verdwijnt daarbij niet, maar verschuift. Minder uitvoeren, meer sturen.

De eerste voorbeelden laten zien hoe snel dit zich een beetje ontwikkelt. Ondernemer Nat Eliason experimenteerde met een AI-agent die toegang kreeg tot zijn website, e-mail en betaalomgeving. Hij gaf het systeem een simpele opdracht: maak een product en probeer het te verkopen. De agent bouwde vervolgens een website, maakte een digitaal product en zette een betaalpagina op. Het systeem liep uiteindelijk vast op een technische beperking, maar had vrijwel het hele proces zelfstandig uitgevoerd.

In andere experimenten werken meerdere AI-agents samen alsof het een managementteam is. Eén agent analyseert kansen in de markt, een andere bouwt het product, een derde verzorgt marketing en een vierde bewaakt de kwaliteit. Een soort digitale directiekamer.

Ik ben hierdoor wel echt mega gefascineerd. AI-agents werken namelijk 24 uur per dag. Ze kunnen meerdere taken tegelijk uitvoeren en duizenden kleine beslissingen automatiseren. Wat vroeger een team van specialisten nodig had, kan in theorie door een netwerk van software worden gedaan. Groei hoeft niet langer automatisch te betekenen dat je meer mensen moet aannemen. ik lees ook steeds meer de voorspelling dat het niet langer duurt, voordat we een unicorn hebben met 1 medewerker.

Toch is het verhaal wel echt een stuk complexer en de realiteit rommeliger. Experimenten laten zien dat AI-agents elkaar verkeerd kunnen begrijpen, verkeerde aannames kunnen doen of beslissingen nemen die logisch lijken voor een algoritme maar niet voor een organisatie.

Wanneer meerdere systemen tegelijk handelen ontstaat al snel verwarring. Taken worden dubbel uitgevoerd, doelen botsen of processen lopen vast. Daar ligt in mijn optiek de echte uitdaging van deze nieuwe bedrijven. Niet de technologie zelf, maar de coördinatie.

Veel leiders kijken naar AI vanuit efficiëntie: hoe kan deze technologie werk sneller of goedkoper maken? Zero-human companies laten een andere vraag zien.

Wat gebeurt er als een organisatie steeds minder draait om mensen die taken uitvoeren, en steeds meer om systemen die taken uitvoeren? De rol van leiderschap verschuift dan ook in mijn optiek.

Leiders worden minder managers van werk en meer ontwerpers van systemen. Je bepaalt niet alleen wat er moet gebeuren, maar ook hoe digitale teams samenwerken, welke beslissingen ze mogen nemen en waar grenzen liggen. Strategie wordt dan belangrijker dan de uitvoering. Ook verantwoordelijkheid verandert. Als een AI-systeem een fout maakt, ligt de verantwoordelijkheid uiteindelijk nog steeds bij de organisatie en haar leiders.

Misschien is de grootste verandering wel conceptueel. We zijn gewend om bedrijven te zien als groepen mensen die samenwerken. Maar in de komende jaren kunnen er steeds meer organisaties ontstaan waarin software een groot deel van die samenwerking overneemt. Dat betekent dat leiders niet alleen teams aansturen, maar ook systemen ontwerpen.

De komende jaren voorspel ik dan ook, dat we de eerste bedrijven zien verschijnen die grotendeels door software worden gerund. Sommige zullen mislukken, andere zullen verrassend succesvol blijken. De interessante vraag is dus niet alleen of het kan… maar; als organisaties steeds digitaler worden, wat wordt dan jouw rol als leider?

admin

Jan Scheele werkt dertien jaar op het snijvlak van deep tech, strategie en leiderschap. Als keynote spreker en dagvoorzitter maakt hij technologie tastbaar voor boardrooms, directieteams en grote podia, zonder de complexiteit te versimpelen of te verbergen achter buzzwords.

Zijn achtergrond ligt in het bouwen. Als CEO van een technologie scale-up, oprichter van meerdere techbedrijven en organisator van meer dan vijftig TED-events wereldwijd zag hij van dichtbij hoe technologische keuzes doorwerken in strategie, governance en cultuur. Vanuit zijn betrokkenheid bij het World Economic Forum en de BCNL Foundation kijkt hij daarbij niet alleen naar wat technisch mogelijk is, maar ook naar wat bestuurlijk houdbaar en maatschappelijk wenselijk is.

Hij publiceerde vijf boeken, waarvan twee Amazon-bestsellers, en schrijft wekelijks over AI, blockchain en de organisatorische gevolgen van deep tech. Zijn blogs bereikten inmiddels meer dan twee miljoen lezers.

Hoe ga ik AI-workslop tegen; 3 regels

Hoe ga ik AI-workslop tegen; 3 regels

Afgelopen week was ik meer tijd bezig met workslop te corrigeren, dan dat gebruik van AI mij tijdswinst gaf. Drie regels die ik heb gesteld om dit tegen te gaan

Ik ben er wel een beetje klaar mee. AI zou tijd vrijmaken. In plaats daarvan corrigeer ik steeds vaker documenten die eruitzien als werk, maar het niet zijn. Strak geformuleerd. Logisch opgebouwd. Maar zonder echte analyse, zonder scherpe keuzes, zonder verantwoordelijkheid voor de inhoud.

Wat er dan gebeurt is fundamenteel: het denkwerk verschuift. Niet naar de machine, maar naar degene die het ontvangt. Die moet checken, herinterpreteren, herschrijven. Workslop automatiseert geen arbeid, het externaliseert verantwoordelijkheid.

Onderzoek laat zien dat ongeveer 40 procent van de werknemers dit herkent. Per incident kost het bijna twee uur herstelwerk. De financiële schade is aanzienlijk, maar de relationele schade is groter. Ontvangers beoordelen afzenders vaker als minder creatief, minder capabel, minder betrouwbaar. Vertrouwen slijt.

Toch is dit in mijn optiek zelden pure luiheid. Het is systeemdruk. Leiders voelen druk om AI te implementeren. Teams voelen druk om te leveren. Als de boodschap dan wordt: gebruik AI overal, dan ontstaat performatief gebruik. Niet: waar voegt dit waarde toe? Maar: hoe laat ik zien dat ik het gebruik?

Dat is geen AI-probleem. Dat is een leiderschapsvraagstuk. In mijn eigen werk probeer ik drie simpele maar harde regels te hanteren.

3 regels

1) AI mag helpen bij vorm, nooit bij verantwoordelijkheid. Als je iets aanlevert, ben jij eigenaar van de inhoud. Ik stel altijd de vraag: als ik je nu doorvraag, kan je dit verdedigen zonder naar de tool te wijzen?

2) geen output zonder expliciete context. Ik wil weten wat de opdracht was, wat je AI precies hebt gevraagd, en wat jij hebt aangepast. Dat dwingt tot nadenken. Transparantie is geen zwakte, het is kwaliteitsborging.

3) AI is een versneller van scherpte, niet van volume. Liever één pagina met echte keuzes dan tien pagina’s generieke perfectie. Ik stuur vaker terug met één zin: wat is hier de kernbeslissing?

Sinds ik dat expliciet maak, zie ik verschil. Minder ruis. Meer eigenaarschap. Betere gesprekken.

AI kan productiviteit verhogen, daar twijfel ik niet aan. Maar alleen als kwaliteit georganiseerd wordt. Zonder duidelijke normen verdwijnt snelheid in rework. Zonder vertrouwen wordt samenwerking stroef. En Zonder eigenaarschap wordt AI een alibi.

Workslop is in mijn optiek dus geen bewijs dat AI faalt. Het is bewijs dat we nog niet volwassen omgaan met wat het betekent om samen te werken met machines.

AI kan echt prachtig versnellen. Maar alleen als leiders de moed hebben om traagheid toe te laten waar denken nodig is.

admin

Jan Scheele werkt dertien jaar op het snijvlak van deep tech, strategie en leiderschap. Als keynote spreker en dagvoorzitter maakt hij technologie tastbaar voor boardrooms, directieteams en grote podia, zonder de complexiteit te versimpelen of te verbergen achter buzzwords.

Zijn achtergrond ligt in het bouwen. Als CEO van een technologie scale-up, oprichter van meerdere techbedrijven en organisator van meer dan vijftig TED-events wereldwijd zag hij van dichtbij hoe technologische keuzes doorwerken in strategie, governance en cultuur. Vanuit zijn betrokkenheid bij het World Economic Forum en de BCNL Foundation kijkt hij daarbij niet alleen naar wat technisch mogelijk is, maar ook naar wat bestuurlijk houdbaar en maatschappelijk wenselijk is.

Hij publiceerde vijf boeken, waarvan twee Amazon-bestsellers, en schrijft wekelijks over AI, blockchain en de organisatorische gevolgen van deep tech. Zijn blogs bereikten inmiddels meer dan twee miljoen lezers.

AI maakt van ons opnieuw Luddieten, maar dit keer om de juiste redenen

Afgelopen week vroeg iemand na mijn lezing of we niet gewoon weer een generatie Luddieten aan het creëren zijn, mensen die vooruitgang niet begrijpen. Daar zit echt iets ongemakkelijks in; hoe snel we iemand vandaag een “luddiet” noemen.

Het klinkt namelijk als een verwijt. Alsof kritiek op AI neerkomt op angst voor vooruitgang. Historisch is dat een karikatuur. De Luddieten van 1811 waren geen mensen die de toekomst niet begrepen. Het waren geschoolde wevers die zagen hoe hun vak werd gereduceerd tot een kostenpost. Machines produceerden sneller en goedkoper. Fabriekseigenaren verdienden. De wever verloor zijn autonomie, zijn inkomen, zijn waardigheid.

Hun woede richtte zich niet op het rad of de stoom. Ze saboteerden specifieke eigenaren die lonen drukten en kwaliteit negeerden. Dat detail verdwijnt vaak uit het verhaal.

De discussie rond AI rijmt daar opvallend mee. Veel ontwerpers en schrijvers zijn niet tegen technologie. Ze gebruiken haar dagelijks. Hun zorg gaat over training op hun werk zonder toestemming. Over een markt die overspoeld raakt met “goed genoeg”. Over macht die zich concentreert bij een handvol bedrijven.

Onderzoek laat zien dat generatieve AI de productiviteit verhoogt, soms met 20 tot 40 procent in bepaalde taken. De vraag is alleen: wie profiteert structureel van die winst? De maker, of vooral het platform?

De Luddite Fallacy leert ons dat technologie op lange termijn nieuwe banen schept. Dat is waar op macroniveau. Voor het individu dat nu terrein verliest, voelt die belofte abstract.

Misschien is de echte scheidslijn niet tussen voor of tegen AI. Misschien gaat het om iets anders: accepteren we dat technologische vooruitgang neutraal is, of durven we opnieuw te vragen aan wie zij uiteindelijk verantwoording verschuldigd is?

admin

Jan Scheele werkt dertien jaar op het snijvlak van deep tech, strategie en leiderschap. Als keynote spreker en dagvoorzitter maakt hij technologie tastbaar voor boardrooms, directieteams en grote podia, zonder de complexiteit te versimpelen of te verbergen achter buzzwords.

Zijn achtergrond ligt in het bouwen. Als CEO van een technologie scale-up, oprichter van meerdere techbedrijven en organisator van meer dan vijftig TED-events wereldwijd zag hij van dichtbij hoe technologische keuzes doorwerken in strategie, governance en cultuur. Vanuit zijn betrokkenheid bij het World Economic Forum en de BCNL Foundation kijkt hij daarbij niet alleen naar wat technisch mogelijk is, maar ook naar wat bestuurlijk houdbaar en maatschappelijk wenselijk is.

Hij publiceerde vijf boeken, waarvan twee Amazon-bestsellers, en schrijft wekelijks over AI, blockchain en de organisatorische gevolgen van deep tech. Zijn blogs bereikten inmiddels meer dan twee miljoen lezers.

De machine slimmer dan de mens… so what?

De machine slimmer dan de mens… so what?

De vraag of een machine slimmer kan worden dan de mens klinkt als sciencefiction. Toch gaat het debat allang niet meer over fantasie. Het gaat over macht, verantwoordelijkheid en de inrichting van organisaties.

Het blijft echt een vraag die ik vaak krijg na lezingen, vaak gesteld met een angstige stem. Wat verandert er echt als systemen niet alleen ondersteunen, maar beter worden in denken dan wij?

Op maatschappelijk niveau zie ik drie duidelijke effecten opdoemen.

Ten eerste verschuift kennis van iets persoonlijks naar iets schaalbaars. Waar expertise vroeger zat in hoofden van specialisten, kan die straks draaien in datacenters. Dat klinkt efficiënt, maar het verandert hoe status en invloed verdeeld zijn. Wie bezit de systemen, bezit de kennis. Dat kan ongelijkheid versterken, niet alleen tussen mensen, maar ook tussen landen en bedrijven.

Ten tweede verandert vertrouwen van karakter. We vertrouwen nu mensen met ervaring en reputatie. In een wereld waarin algoritmen betere voorspellingen doen dan experts, verschuift vertrouwen naar prestatiescores en modellen. Dat maakt besluitvorming rationeler, maar ook afstandelijker. Vertrouwen wordt meetbaar, minder relationeel.

Ten derde komt werk onder druk te staan, niet alleen in uitvoerende rollen, maar juist in kennisfuncties. Analisten, juristen, consultants, strategen. Functies die draaiden om het verwerken en combineren van informatie. Organisaties zullen zich opnieuw moeten afvragen waar menselijke waarde zit als denken goedkoper en sneller wordt.

Voor organisaties zie ik een tweede laag. Leiderschap verschuift van inhoudelijk de slimste zijn naar het kunnen duiden van uitkomsten. De vraag wordt minder: wat denk jij? En vaker: waarom volgen we dit systeem wel of niet? Dat vraagt moed. Afwijken van een model dat statistisch gelijk heeft, moet je kunnen uitleggen.

Misschien is dat de echte impact van AGI. Niet massale werkloosheid of technologische chaos, maar een herdefinitie van gezag. Slimheid wordt een commodity. Oordeel, verantwoordelijkheid en betekenis geven worden schaars.

Of machines ons werkelijk voorbijgaan, weten we niet. Dat organisaties en samenlevingen zich moeten voorbereiden op een wereld waarin intelligentie niet langer exclusief menselijk is, lijkt mij inmiddels onvermijdelijk. De vraag is niet alleen wat technologie kan, maar wie wij willen blijven als zij dat kan.

admin

Jan Scheele werkt dertien jaar op het snijvlak van deep tech, strategie en leiderschap. Als keynote spreker en dagvoorzitter maakt hij technologie tastbaar voor boardrooms, directieteams en grote podia, zonder de complexiteit te versimpelen of te verbergen achter buzzwords.

Zijn achtergrond ligt in het bouwen. Als CEO van een technologie scale-up, oprichter van meerdere techbedrijven en organisator van meer dan vijftig TED-events wereldwijd zag hij van dichtbij hoe technologische keuzes doorwerken in strategie, governance en cultuur. Vanuit zijn betrokkenheid bij het World Economic Forum en de BCNL Foundation kijkt hij daarbij niet alleen naar wat technisch mogelijk is, maar ook naar wat bestuurlijk houdbaar en maatschappelijk wenselijk is.

Hij publiceerde vijf boeken, waarvan twee Amazon-bestsellers, en schrijft wekelijks over AI, blockchain en de organisatorische gevolgen van deep tech. Zijn blogs bereikten inmiddels meer dan twee miljoen lezers.

Mijn wekelijkse

Shot inspiratie

Elke week ontvangen 400+ mensen een shot deep-tech inspiratie. Ook ontvangen? Schrijf je hier rechts gratis in.

Ik spam nooit en gebruik het mailadres
alleen voor deze nieuwsbrief.

Copyright © 2026 Jan Scheele

Ook elke week een shot deeptech inspiratie?

Meld je aan om elk weekend een gratis shot inspiratie te ontvangen in de mailbox.

Ik spam nooit en gebruik het mailadres
alleen voor deze nieuwsbrief.

Paid Search Marketing
Search Engine Optimization
Email Marketing
Conversion Rate Optimization
Social Media Marketing
Google Shopping
Influencer Marketing
Amazon Shopping
Explore all solutions