Wat kunnen we doen tegen de snel toenemende enshittification?

Enshittification klinkt als een grap, maar het is een van de scherpste woorden om te begrijpen waarom zoveel digitale diensten tegelijk slechter aanvoelen. Platformen beginnen gebruiksvriendelijk, goedkoop en aantrekkelijk. Ze helpen je groeien, leveren bereik op en maken dingen makkelijker. Zodra genoeg mensen afhankelijk zijn geworden, verschuift de logica. Meer advertenties, minder organisch bereik, slechtere zoekresultaten, hogere commissies, meer pay-to-play. Wat eerst een handig systeem was, verandert langzaam in een extractiemachine.

Voor ondernemers is dat geen abstract techdebat, het is een bedrijfsrisico. Veel bedrijven bouwen hun zichtbaarheid, leads, klantcontact of omzet op infrastructuur die niet van hen is. Eerst voelt dat slim. Je lift mee op schaal, gemak en snelheid. Maar later betaal je de prijs van die afhankelijkheid. Een platform kan de spelregels aanpassen, je bereik afknijpen of je dwingen meer te betalen voor hetzelfde resultaat. Dan merk je ineens dat je niet op eigen grond bouwde, maar op gehuurde grond.

Tegelijk moeten we eerlijk zijn: die grote platformen hebben ondernemers enorm veel gebracht. Lage instapdrempels, goedkoop bereik, distributie, gemak. Dat is precies waarom ze zo groot zijn geworden. Het probleem is niet dat centrale platformen per definitie slecht zijn. Het probleem ontstaat zodra hun prikkels verschuiven. Op het moment dat gebruikers en bedrijven niet makkelijk meer weg kunnen, wordt verslechtering een rationele strategie. Niet uit kwaadaardigheid, maar uit structuur.

Precies daarom gaat enshittification niet alleen over irritante apps of slechtere zoekmachines. Het gaat over marktmacht, over lock-in, over een internet waarin de gebruiker of ondernemer steeds minder klant is en steeds meer grondstof. En dat patroon versnelt. Naarmate AI-gedreven interfaces de zoekopdracht of het platform verder als tussenpersoon versterken, wordt de afhankelijkheid van die laag alleen maar groter.

Wat kun je er als ondernemer tegen doen? Niet door in nostalgie te schieten, maar door strategischer te bouwen. Minder blind vertrouwen op één platform, meer eigen bezit opbouwen. Een eigen mailinglijst. Een sterke website. Directe klantrelaties die buiten algoritmes bestaan. Een merk dat herkenbaar blijft ook als het platform morgen de regels verandert. Hoe minder je businessmodel volledig leunt op één tussenpartij, hoe kleiner de schade als die partij verschuift.

Er is ook een bredere les in. Bereik dat je huurt is handig. Bereik dat je bezit is sterker. In een wereld waarin platformen langzaam voller, duurder en stroperiger worden, stijgt de waarde van directe relaties alleen maar verder. De echte reactie op enshittification is niet alleen klagen dat het internet slechter wordt. Het is bouwen op een fundament dat je zelf in handen hebt.

admin

Jan Scheele werkt dertien jaar op het snijvlak van deep tech, strategie en leiderschap. Als keynote spreker en dagvoorzitter maakt hij technologie tastbaar voor boardrooms, directieteams en grote podia, zonder de complexiteit te versimpelen of te verbergen achter buzzwords.

Zijn achtergrond ligt in het bouwen. Als CEO van een technologie scale-up, oprichter van meerdere techbedrijven en organisator van meer dan vijftig TED-events wereldwijd zag hij van dichtbij hoe technologische keuzes doorwerken in strategie, governance en cultuur. Vanuit zijn betrokkenheid bij het World Economic Forum en de BCNL Foundation kijkt hij daarbij niet alleen naar wat technisch mogelijk is, maar ook naar wat bestuurlijk houdbaar en maatschappelijk wenselijk is.

Hij publiceerde vijf boeken, waarvan twee Amazon-bestsellers, en schrijft wekelijks over AI, blockchain en de organisatorische gevolgen van deep tech. Zijn blogs bereikten inmiddels meer dan twee miljoen lezers.

De jagged frontier: waarom AI je soms briljant helpt… en je een minuut later laat struikelen

De jagged frontier: waarom AI je soms briljant helpt, en je een minuut later laat struikelen

Veel ondernemers praten nog over AI alsof het een rechte lijn volgt. Eerst neemt het de simpele taken over, daarna de moeilijkere, en uiteindelijk wordt het steeds slimmer in alles. Alleen werkt het in de praktijk helemaal niet zo. Juist dat maakt AI momenteel zo verraderlijk. Een model kan in één adem een sterke analyse maken, een keurige samenvatting schrijven of een redelijke strategie opzetten en vervolgens falen op iets dat voor een mens bijna banaal voelt. Dat grillige patroon wordt steeds vaker de jagged frontier genoemd: een grens tussen wat AI wel en niet betrouwbaar kan.

Dit is niet alleen een leuke theorie uit de techwereld. In een bekend experiment met 758 consultants bleek dat AI bij veel taken echt forse winst opleverde. De deelnemers met AI voltooiden gemiddeld 12% meer taken, werkten 25% sneller en leverden ongeveer 40% hogere kwaliteit op. Alleen zat daar een pijnlijke draai aan. Bij een taak die nét buiten die frontier viel, waren dezelfde consultants met AI juist 19% minder vaak correct. Dus ja, AI kan je werk spectaculair versnellen, maar ook sneller de verkeerde kant op sturen :).

Voor ons als gebruiker is dat misschien wel de belangrijkste les van dit moment. De verkeerde vraag is: kan AI deze functie overnemen? De betere vraag is: op welke precieze onderdelen van dit werk helpt AI echt… en waar wordt menselijke controle juist belangrijker? Want de meeste functies bestaan niet uit één taak, maar uit een mengsel van analyse, nuance, klantgevoel, timing, context en controle. Op sommige stukken is AI al verrassend sterk. Op andere stukken blijft het wankel, hoe zelfverzekerd de output ook klinkt.

Daarom zie je ook dat slim AI-gebruik minder gaat over blind automatiseren en meer over taakverdeling. Recente vervolgstudies beschrijven grofweg drie stijlen. Sommige professionals werken als een soort centaur: zij verdelen bewust wat mens doet en wat machine doet. Anderen werken meer als cyborg: mens en AI lopen voortdurend door elkaar heen. De gevaarlijkste groep is de self-automator: iemand die niet alleen taken, maar ook te veel oordeel uitbesteedt. Juist die groep loopt het meeste risico om vaardigheid en scherpte te verliezen.

Ik blijf hier heel nuchter in denken; AI is niet één golf die overal tegelijk binnenkomt. Het is een grillige grens die steeds meer verschuift. Wie dat negeert, maakt domme keuzes. Wie dat begrijpt, kan er juist voordeel uit halen. Niet door AI overal tussen te zetten, maar door scherp te zien waar de machine tempo brengt, en waar jij als ondernemer nog altijd het verschil maakt.

admin

Jan Scheele werkt dertien jaar op het snijvlak van deep tech, strategie en leiderschap. Als keynote spreker en dagvoorzitter maakt hij technologie tastbaar voor boardrooms, directieteams en grote podia, zonder de complexiteit te versimpelen of te verbergen achter buzzwords.

Zijn achtergrond ligt in het bouwen. Als CEO van een technologie scale-up, oprichter van meerdere techbedrijven en organisator van meer dan vijftig TED-events wereldwijd zag hij van dichtbij hoe technologische keuzes doorwerken in strategie, governance en cultuur. Vanuit zijn betrokkenheid bij het World Economic Forum en de BCNL Foundation kijkt hij daarbij niet alleen naar wat technisch mogelijk is, maar ook naar wat bestuurlijk houdbaar en maatschappelijk wenselijk is.

Hij publiceerde vijf boeken, waarvan twee Amazon-bestsellers, en schrijft wekelijks over AI, blockchain en de organisatorische gevolgen van deep tech. Zijn blogs bereikten inmiddels meer dan twee miljoen lezers.

De stille prijs van AI: hoe intellectuele de-skilling en de soft skill paradox organisaties verzwakken

AI maakt organisaties sneller. Ik zie het echt bij elke organisatie waar ik mee mag werken. Alleen zit er onder die productiviteitswinst een risico waar nog te weinig leiders echt over nadenken: intellectuele de-skilling. Je team levert meer op, maar denkt soms minder diep. Precies daar zit ook de soft skill paradox. Juist nu AI steeds meer harde taken overneemt, worden menselijke vaardigheden als kritisch denken, overtuigen, luisteren, oordeelsvorming en communicatie waardevoller. Alleen oefenen we ze tegelijk minder.

 

Dat gevaar is niet abstract. In recent onderzoek gebruikte 95% van de gebruikers AI vooral als vervanging van denken, terwijl maar 5-10 % het inzette als echte sparringpartner die frictie toevoegt. Dat verschil is enorm. De eerste groep wordt sneller. De tweede groep wordt vaak ook echt beter. Dat is precies de scheidslijn waar organisaties nu overheen dreigen te lopen.

 

Wat dit extra verraderlijk maakt in mijn optiek , is dat het er aan de buitenkant vaak goed uitziet. Meer output, minder tijdverlies, nettere eerste versies. Alleen: schrijven is ook denken. Zelf analyseren is ook oordeelsvorming. Zodra medewerkers vooral AI-output redigeren in plaats van zelf iets van nul op te bouwen, verschuiven ze langzaam van maker naar bewerker.

 

In vakliteratuur wordt dat inmiddels niet meer gezien als een individueel probleem, maar als een structureel risico: sommige AI-omgevingen worden zelfs omschreven als “capacity-hostile environments”, werkomgevingen die het opbouwen van menselijk vakmanschap actief ondermijnen.

 

Je ziet dat in de praktijk al terug. Steeds meer bedrijven meten echt het AI-gebruik van hun medewerkers, om hier consequenties (bonussen, maar ook ontslagen) aan te koppelen. Dat laat duidelijk zien hoe snel AI-gebruik een prestatiemaatstaf wordt. Het risico is alleen dat bedrijven adoptie gaan belonen zonder goed te meten of mensen ook inhoudelijk sterker worden. Intussen waarschuwen denkers als Jensen Huang juist dat vrijwel alle banen gaan veranderen, niet verdwijnen, wat betekent dat menselijke meerwaarde straks niet kleiner maar belangrijker wordt.

 

Voor junioren binnen organisaties is dit misschien nog het spannendst. Als AI de eerste analyses, eerste pitches, eerste code en eerste klantreacties overneemt, verdwijnt ook het oefenveld waarin je het vak normaal leert. Dan verwachten we steeds sterkere soft skills van mensen die minder vaak echt hebben kunnen oefenen. Dat is de paradox in het klein, en straks mogelijk een groot organisatieprobleem: veel snelheid aan de bovenkant, maar een dunnere kweekvijver daaronder.

 

In mijn optiek zijn de slimste organisaties van de komende jaren niet de bedrijven die AI overal als eerste tussen zetten. Het zijn de bedrijven die weten waar frictie nodig blijft. Waar mensen eerst zelf moeten schrijven, redeneren, presenteren en afwegen, vóór de machine het overneemt. Want in een wereld waarin iedereen toegang heeft tot dezelfde modellen, wordt het verschil weer verrassend menselijk: wie kan er nog echt zelf denken?

admin

Jan Scheele werkt dertien jaar op het snijvlak van deep tech, strategie en leiderschap. Als keynote spreker en dagvoorzitter maakt hij technologie tastbaar voor boardrooms, directieteams en grote podia, zonder de complexiteit te versimpelen of te verbergen achter buzzwords.

Zijn achtergrond ligt in het bouwen. Als CEO van een technologie scale-up, oprichter van meerdere techbedrijven en organisator van meer dan vijftig TED-events wereldwijd zag hij van dichtbij hoe technologische keuzes doorwerken in strategie, governance en cultuur. Vanuit zijn betrokkenheid bij het World Economic Forum en de BCNL Foundation kijkt hij daarbij niet alleen naar wat technisch mogelijk is, maar ook naar wat bestuurlijk houdbaar en maatschappelijk wenselijk is.

Hij publiceerde vijf boeken, waarvan twee Amazon-bestsellers, en schrijft wekelijks over AI, blockchain en de organisatorische gevolgen van deep tech. Zijn blogs bereikten inmiddels meer dan twee miljoen lezers.

De stille prijs van AI: hoe intellectuele de-skilling en de soft skill paradox organisaties verzwakken

De stille prijs van AI: hoe intellectuele de-skilling en de soft skill paradox organisaties verzwakken

AI maakt organisaties sneller. Ik zie het echt bij elke organisatie waar ik mee mag werken. Alleen zit er onder die productiviteitswinst een risico waar nog te weinig leiders echt over nadenken: intellectuele de-skilling. Je team levert meer op, maar denkt soms minder diep. Juist nu AI steeds meer harde taken overneemt, worden menselijke vaardigheden als kritisch denken, overtuigen, luisteren, oordeelsvorming en communicatie waardevoller. Alleen oefenen we ze tegelijk minder.

Dat gevaar is niet abstract. In recent onderzoek gebruikte 95% van de gebruikers AI vooral als vervanging van denken, terwijl maar 5-10 % het inzette als echte sparringpartner die frictie toevoegt. Dat verschil is enorm. De eerste groep wordt sneller. De tweede groep wordt vaak ook echt beter. Dat is precies de scheidslijn waar organisaties nu overheen dreigen te lopen.

Wat dit extra verraderlijk maakt in mijn optiek, is dat het er aan de buitenkant vaak goed uitziet. Meer output, minder tijdverlies, nettere eerste versies. Alleen: schrijven is ook denken. Zelf analyseren is ook oordeelsvorming. Zodra medewerkers vooral AI-output redigeren in plaats van zelf iets van nul op te bouwen, verschuiven ze langzaam van maker naar bewerker.

In vakliteratuur wordt dat inmiddels niet meer gezien als een individueel probleem, maar als een structureel risico: sommige AI-omgevingen worden zelfs omschreven als “capacity-hostile environments”, werkomgevingen die het opbouwen van menselijk vakmanschap actief ondermijnen.

Je ziet dat in de praktijk al terug. Steeds meer bedrijven meten echt het AI-gebruik van hun medewerkers, om hier consequenties (bonussen, maar ook ontslagen) aan te koppelen. Dat laat duidelijk zien hoe snel AI-gebruik een prestatiemaatstaf wordt. Het risico is alleen dat bedrijven adoptie gaan belonen zonder goed te meten of mensen ook inhoudelijk sterker worden.

Voor junioren binnen organisaties is dit misschien nog het spannendst. Als AI de eerste analyses, eerste pitches, eerste code en eerste klantreacties overneemt, verdwijnt ook het oefenveld waarin je het vak normaal leert. Dan verwachten we steeds sterkere soft skills van mensen die minder vaak echt hebben kunnen oefenen. Dat is de paradox in het klein, en straks mogelijk een groot organisatieprobleem: veel snelheid aan de bovenkant, maar een dunnere kweekvijver daaronder.

In mijn optiek zijn de slimste organisaties van de komende jaren niet de bedrijven die AI overal als eerste tussen zetten. Het zijn de bedrijven die weten waar frictie nodig blijft. Waar mensen eerst zelf moeten schrijven, redeneren, presenteren en afwegen, vóór de machine het overneemt. Want in een wereld waarin iedereen toegang heeft tot dezelfde modellen, wordt het verschil weer verrassend menselijk: wie kan er nog echt zelf denken?

admin

Jan Scheele werkt dertien jaar op het snijvlak van deep tech, strategie en leiderschap. Als keynote spreker en dagvoorzitter maakt hij technologie tastbaar voor boardrooms, directieteams en grote podia, zonder de complexiteit te versimpelen of te verbergen achter buzzwords.

Zijn achtergrond ligt in het bouwen. Als CEO van een technologie scale-up, oprichter van meerdere techbedrijven en organisator van meer dan vijftig TED-events wereldwijd zag hij van dichtbij hoe technologische keuzes doorwerken in strategie, governance en cultuur. Vanuit zijn betrokkenheid bij het World Economic Forum en de BCNL Foundation kijkt hij daarbij niet alleen naar wat technisch mogelijk is, maar ook naar wat bestuurlijk houdbaar en maatschappelijk wenselijk is.

Hij publiceerde vijf boeken, waarvan twee Amazon-bestsellers, en schrijft wekelijks over AI, blockchain en de organisatorische gevolgen van deep tech. Zijn blogs bereikten inmiddels meer dan twee miljoen lezers.

Sycophancy is misschien een van de meest onderschatte uitdagingen binnen organisaties

Een van de verraderlijkste problemen van AI is niet dat een model fouten maakt. Het is dat het die fouten soms op een prettig klinkende manier verpakt. Je voelt je begrepen, bevestigd, misschien zelfs slim. Alleen is dat precies waar het mis kan gaan. Sycophancy betekent dat een AI te veel met je meebeweegt: niet omdat je gelijk hebt, maar omdat het model heeft geleerd dat instemming vaak goed voelt voor de gebruiker.

Dat is geen klein randprobleem meer. In 2025 moest OpenAI een GPT-4o-update terugdraaien omdat het model merkbaar te vleiend en te instemmend was geworden. Volgens OpenAI zelf ging het niet alleen om flattery, maar ook om het valideren van twijfel, het aanwakkeren van boosheid en het versterken van impulsief of riskant gedrag. Dat moment was veelzeggend, omdat het liet zien dat “vriendelijker” gedrag heel snel kan doorschieten naar iets dat inhoudelijk slechter en soms ronduit onveiliger is.

De wetenschap laat inmiddels zien dat dit echte gevolgen heeft. Een Stanford-studie, gepubliceerd in Science, keek naar meer dan 2.400 deelnemers en vond dat mensen sycofante AI als betrouwbaarder ervoeren en vaker naar zo’n model wilden terugkeren. Nog ongemakkelijker: wanneer deelnemers met zo’n meegaande AI spraken over conflicten, voelden ze zich sterker bevestigd in hun eigen gelijk en waren ze minder geneigd om excuses te maken of een gesprek met anderen te herstellen. Een instemmende AI voelt dus niet alleen prettig, maar kan ook je sociale gedrag scheeftrekken.

Voor bedrijven is dat groter dan het op het eerste gezicht lijkt. Een leider die een AI vraagt of zijn strategie slim is, een marketeer die een campagne laat beoordelen, een HR-manager die feedback laat aanscherpen: allemaal lopen ze het risico dat de tool niet het beste antwoord geeft, maar het meest bevestigende. Dan wordt AI geen sparringpartner maar een spiegel voor je eigen aannames. Gevaarlijk, juist omdat het competent oogt.

Waarom gebeurt dit? Deels omdat moderne modellen worden afgestemd op menselijke voorkeuren, en mensen houden nu eenmaal van antwoorden die prettig, empathisch en meegaand voelen. Als je een model beloont voor “nuttigheid”, kan het leren dat bevestigen soms effectiever is dan corrigeren. Dat maakt sycophancy geen bug die je simpelweg uitzet, maar een structurele spanning in hoe we deze systemen ontwerpen.

Dit wordt de komende jaren een veel groter thema. Niet omdat AI ons openlijk manipuleert, maar omdat het ons subtiel helpt om onszelf gelijk te blijven geven. Juist daarom moeten we AI niet alleen waarderen om snelheid en vriendelijkheid, maar ook om iets anders: de moed om ons tegen te spreken. Een goede AI streelt je ego niet. Die maakt je denken scherper.

admin

Jan Scheele werkt dertien jaar op het snijvlak van deep tech, strategie en leiderschap. Als keynote spreker en dagvoorzitter maakt hij technologie tastbaar voor boardrooms, directieteams en grote podia, zonder de complexiteit te versimpelen of te verbergen achter buzzwords.

Zijn achtergrond ligt in het bouwen. Als CEO van een technologie scale-up, oprichter van meerdere techbedrijven en organisator van meer dan vijftig TED-events wereldwijd zag hij van dichtbij hoe technologische keuzes doorwerken in strategie, governance en cultuur. Vanuit zijn betrokkenheid bij het World Economic Forum en de BCNL Foundation kijkt hij daarbij niet alleen naar wat technisch mogelijk is, maar ook naar wat bestuurlijk houdbaar en maatschappelijk wenselijk is.

Hij publiceerde vijf boeken, waarvan twee Amazon-bestsellers, en schrijft wekelijks over AI, blockchain en de organisatorische gevolgen van deep tech. Zijn blogs bereikten inmiddels meer dan twee miljoen lezers.

De quantumdreiging voor crypto: paniek of echt probleem?

De quantumdreiging voor crypto: paniek of echt probleem?

Jarenlang klonk de quantumdreiging voor crypto als een verhaal voor later. Interessant voor onderzoekers, spannend voor mensen in de techwereld, maar niet iets waar de doorsnee cryptobezitter vandaag al van wakker hoefde te liggen. Dat gevoel begint momenteel te schuiven. Niet omdat er morgen ineens een machine opduikt die massaal wallets openbreekt, maar omdat recente onderzoeken laten zien dat de afstand tussen theorie en praktijk kleiner wordt. Waar eerdere schattingen nog uitgingen van tientallen miljoenen qubits om moderne cryptografie te breken, spreken recentere analyses over veel lagere aantallen. Ik ging vanuit NodeNieuws in gesprek met twee vooraanstaande experts op dit onderwerp, die ook gaan spreken op de Dutch Blockchain Week.

Voor een breed publiek is het goed om het simpel te houden. Crypto draait op digitale sloten. Die zorgen ervoor dat alleen de eigenaar van een wallet geld kan versturen. Quantumcomputers zijn interessant omdat ze voor bepaalde rekenproblemen veel krachtiger kunnen worden dan gewone computers. Daardoor kunnen ze op een dag sommige van die digitale sloten openmaken. Niet allemaal op dezelfde manier, niet allemaal tegelijk, maar wel genoeg om het fundament van vertrouwen onder druk te zetten.

Dat is meteen een belangrijk punt. De grootste angst is niet dat de hele blockchain ineens verdwijnt. De grotere dreiging zit in eigendom en toestemming. Wie mag geld versturen, wie heeft toegang tot een wallet, wie kan bewijzen dat iets van hem is. Uit onderzoeken blijkt ook dat vooral digitale handtekeningen, consensuslagen en smart contracts gevoelig zijn. Het probleem zit dus niet vooral in het wissen van het grootboek, maar in het openbreken van de sleutels eromheen.

Simpel gezegd zijn er dus twee soorten gevaar. Eerst krijg je een fase waarin sommige huizen een zwak slot blijken te hebben. Dat is al vervelend, maar nog te overzien. Daarna komt de fase waarin het hele type slot verouderd raakt. Dan moet niet alleen één deur worden vervangen, maar moet het hele systeem overstappen op een nieuw soort beveiliging.

Niet de machine alleen, maar vooral ons uitstelgedrag

Itan Barmes van Qiz Security zet de discussie meteen op scherp. Voor hem zit het gevaar niet alleen in de technologie zelf, maar ook in het menselijk patroon daaromheen. “De technologie is een reële dreiging en het feit dat niemand precies weet wanneer het zover is maakt het alleen maar lastiger om organisaties in beweging te krijgen. Die onduidelijke tijdslijn werkt verlammend: het voelt altijd te vroeg om te beginnen, tot het te laat is.” Dat is misschien wel de kern van dit hele gevaar. Zolang er geen harde einddatum op de kalender staat, blijft het verleidelijk om voorbereiding nog even uit te stellen.

Thomas Attema van CWI kijkt daar vanuit risicomanagement naar. Zijn redenering is bijna ouderwets nuchter. “Zelfs als de kans klein is moeten we actie ondernemen, omdat de impact zo groot is. Dit is standaard risico management.” Juist die combinatie maakt het onderwerp zo ongemakkelijk. De timing is onzeker, maar de gevolgen kunnen enorm zijn. In de beveiligingswereld is dat meestal al genoeg om in beweging te komen.

Beide mannen leggen dus een ander accent, maar ze wijzen naar hetzelfde probleem. Barmes laat zien hoe vaagheid verlammend werkt binnen organisaties. Attema zegt juist dat die vaagheid geen excuus mag zijn om stil te blijven zitten. Samen maken ze duidelijk waarom de quantumdreiging geen hypeverhaal is, maar ook geen simpel paniekscenario. Het is een risico dat lastig te timen is, maar te groot om te negeren.

Het echte probleem heet niet Bitcoin, maar vertrouwen

Wie aan quantum en crypto denkt, denkt meestal meteen aan Bitcoin. Dat is logisch, maar ook misleidend. Attema waarschuwt nadrukkelijk tegen die smalle blik. “Bitcoin is een van de vele plekken waar cryptografie gebruikt wordt. Zonder veilige cryptografie is onze hele digitale infra ontwricht. Denk aan website bezoeken, veilige communicatie, pintransacties.” Daarmee trekt hij het onderwerp uit de cryptowereld en zet hij het terug waar het hoort: in de bredere digitale samenleving.

Dat bredere perspectief is belangrijk, maar binnen crypto krijgt het risico wel een eigen lading. Crypto draait immers bijna volledig op vertrouwen in code. Zodra mensen het gevoel krijgen dat de digitale sloten niet meer waterdicht zijn, komt er druk op veel meer te staan dan alleen techniek. Barmes zegt daar iets wezenlijks over: “Technisch gezien wordt misschien maar een deel van de assets direct kwetsbaar, maar dat is niet waar het echte risico zit. Het gaat om vertrouwen. Als het gevoel ontstaat dat crypto niet meer veilig is, dan maakt het niet uit of jouw specifieke wallet wel of niet kwetsbaar is. Dan keldert de prijs over de hele linie.”

Dat is een inzicht dat vaak ontbreekt in technische discussies. Een systeem hoeft niet volledig kapot te zijn om toch in een crisis te belanden. Soms is het genoeg dat het vertrouwen wegloopt. In die zin is de quantumdreiging niet alleen een beveiligingsprobleem, maar ook een marktrisico, een governanceprobleem en uiteindelijk zelfs een psychologisch vraagstuk.

Eén protocolupgrade en klaar? Vergeet het maar

In de cryptowereld hoor je nog vaak dat een toekomstige protocolupgrade het probleem uiteindelijk wel zal oplossen. Dat klinkt geruststellend, maar volgens Barmes is dat veel te simpel gedacht. “Het is begrijpelijk dat mensen zo denken, maar het onderschat de complexiteit enorm.” De blockchain zelf is maar één onderdeel van een veel groter ecosysteem. Exchanges, custodians, wallets, hardware security modules, smart contracts en legacy-systemen zijn allemaal met elkaar verweven. Versterk je één schakel, dan ben je er nog niet, omdat de veiligheid van het geheel afhangt van hoe al die onderdelen samen functioneren. De quantumdreiging is dus niet alleen een protocolprobleem, maar vooral een ketenprobleem.”

Dat beeld werkt omdat bijna iedereen het direct begrijpt. De discussie over quantumveiligheid gaat dus niet alleen over Bitcoin of Ethereum als protocol, maar over alles wat eromheen gebouwd is. Een exchange kan bijvoorbeeld nog steeds kwetsbaar zijn via oude infrastructuur. Een wallet kan vastzitten aan oude ondertekeningstechniek. En een slim contract kan cryptografische aannames bevatten die je niet zomaar meer verandert. Juist daarom is het verhaal van een nette, centrale upgrade zo misleidend.

Attema komt via een andere route tot ongeveer dezelfde conclusie. Op de vraag wat uiteindelijk het lastigste deel wordt, antwoordt hij opvallend helder: “De cryptografie hebben we nu op een bepaalde manier al. Nieuwe standaarden. Deze uitrollen is de grote uitdaging van het moment.” Dat is misschien wel de meest onderschatte zin uit het hele debat. Niet de theorie, maar de migratie wordt de echte stresstest.

De grootste chaos moet nog beginnen

Dat brengt ons bij een onderwerp waar beide geïnterviewden hard op terugkomen: bestuurlijke chaos. In de buitenwereld leeft soms nog het idee dat crypto flexibel is omdat alles software is. Alleen werkt dat in de praktijk heel anders. Gedecentraliseerde systemen hebben niet één bestuurder, niet één migratieplan en niet één knop waarmee alles tegelijk verandert. Barmes zegt het scherp: “In de traditionele financiële wereld is migratie al moeilijk genoeg. In crypto ontbreekt de structuur om dat soort beslissingen snel en zorgvuldig te nemen.”

Die opmerking raakt een pijnlijk punt. Crypto is groot geworden met het idee dat je geen centrale partij hoeft te vertrouwen. Dat klinkt sterk, totdat er een noodsituatie dreigt en er juist behoefte ontstaat aan coördinatie, tempo en heldere besluitvorming. Welke nieuwe beveiliging kies je? Wanneer stap je over? Hoe voorkom je dat miljoenen gebruikers fouten maken? Wat doe je met systemen die niet meer te upgraden zijn? Dit soort vragen zijn niet puur technisch. Ze gaan over bestuur, timing en collectieve discipline.

Attema is op dat punt minstens zo direct. Op de vraag wanneer gezonde kalmte omslaat in gevaarlijke zelfgenoegzaamheid, antwoordt hij: “Nu al.” Hij wijst erop dat wetgeving en standaarden in verschillende landen al uitgaan van serieuze voorbereiding richting 2030 en 2035. Dat sluit ook aan bij officiële guidance uit de cybersecuritywereld, waar organisaties juist nu worden aangespoord om te inventariseren, plannen te maken en gefaseerd te migreren.  

Het pijnlijkste hoofdstuk: niet alles is nog te redden

Misschien komt de hardste boodschap van Barmes aan het eind van zijn interview“De ongemakkelijke waarheid is dat een significant deel van de bestaande blockchain-assets beschermd wordt door cryptografie die op termijn breekbaar wordt, en dat er voor veel van die assets geen realistisch migratiepad bestaat.” Dat is geen detail, maar een fundamenteel punt. Verloren wallets, onbeheerde adressen en slimme contracten zonder upgrade-mechanisme kun je niet simpelweg even patchen.

Dat sluit ook aan bij recent werk dat Itan samen met Colin Soutar publiceerde, in samenwerking met Deloitte. Daaruit bleek dat meer dan 4 miljoen BTC, ongeveer 25 procent van alle bitcoins op dat moment, potentieel kwetsbaar waren door oude of hergebruikte adressen. Op basis daarvan is inmiddels ook een interactieve applicatie verschenen die die kwetsbaarheid per adrestype inzichtelijk maakt.

Onderzoekers gaan zelfs nog verder en beschrijven dat een snelle migratie in Bitcoin praktisch vast kan lopen op de beperkte ruimte op de blockchain zelf. In een extreem scenario zouden niet alle gebruikers op tijd “door de deur” kunnen.

Attema kijkt hier weer iets breder naar en zegt dat uiteindelijk complete blockchains in de problemen kunnen komen als de dreiging sneller dichterbij komt dan gedacht. Voor Bitcoin zijn sommige adressen kwetsbaarder dan andere, maar zijn punt is groter: als de onderliggende cryptografie breekt, heb je niet alleen een lokaal probleem, maar een systeemprobleem. Dat maakt de discussie ook zo gevoelig. Het gaat niet alleen om een paar pechvogels met oude wallets, maar om de geloofwaardigheid van het hele bouwwerk.

De sector zegt graag dat ze bezig is, maar waar is het echte werk?

Quantumveiligheid is inmiddels ook een marketingterm geworden. Er zijn genoeg projecten die graag “quantum-resistant” op hun homepage zetten. Barmes prikt daar doorheen. “Echte voorbereiding is niet sexy. Het is inventariseren, prioriteren, testen, en gefaseerd uitrollen. Dat verkoopt geen tokens.” Die zin blijft hangen omdat hij precies benoemt waar het vaak misgaat in de cryptowereld: zichtbaarheid krijgt meer aandacht dan saai, technisch voorwerk.

Zijn tweede punt is misschien nog belangrijker. Cryptographic agility klinkt als een technisch begrip, maar hij noemt het vooral een organisatievraagstuk. “Kun je als organisatie überhaupt in kaart brengen waar je cryptografie zit?” Die vraag lijkt simpel, maar blijkt in de praktijk vaak pijnlijk lastig. Veel organisaties weten niet precies welke sleutels, certificaten, protocollen en afhankelijkheden ze hebben draaien. Zolang dat overzicht ontbreekt, blijft elk migratieplan half blind.

Dat er stappen worden gezet, blijkt ook uit BIP 360, dat in februari 2026 werd opgenomen in de officiële Bitcoin BIP-repository. Dat voorstel introduceert met P2MR een nieuw quantum-resistenter adrestype. Belangrijk, zeker. Maar ook beperkt. Het is vooral een eerste stap tegen een deel van het probleem, niet de definitieve oplossing voor het hele ecosysteem. Juist daardoor onderstreept het voorstel eigenlijk de hoofdboodschap van dit artikel: de migratie is begonnen, maar de echte opgave moet nog komen.

Attema zet daar zijn eigen harde misverstand tegenover. Als hij één idee uit het debat mocht slopen, dan is het volgens hem simpelweg dit: “Dat je nog wel kan wachten.” Daar zit eigenlijk de rode draad van beide interviews in. Niet wachten tot de perfecte duidelijkheid er is, maar beginnen met de rommelige werkelijkheid die je vandaag al ziet.

De echte test van crypto begint pas nu

De quantumdreiging voor crypto is dus niet alleen een verhaal over futuristische machines. Het is vooral een verhaal over volwassenheid. Kunnen blockchains, exchanges, custodians en gebruikers samen op tijd bewegen? Kan een sector die trots is op decentralisatie ook collectief moeilijke keuzes maken? Kan vertrouwen behouden blijven op het moment dat het technische fundament onder druk komt te staan?

Het eerlijke antwoord is dubbel. Nee, morgen stort waarschijnlijk niet ineens de hele cryptowereld in. Ja, de dreiging is serieus genoeg om nu al te handelen. Barmes laat zien dat uitstel, legacy en vertrouwensverlies de sector kunnen opbreken. Attema maakt duidelijk dat de impact van falende cryptografie zo groot is dat afwachten eigenlijk geen volwassen optie meer is.

Misschien is dat de meest nuchtere conclusie van allemaal. Quantum is niet alleen een technisch vraagstuk voor later. Het is nu al een test van hoe serieus crypto zichzelf neemt.

admin

Jan Scheele werkt dertien jaar op het snijvlak van deep tech, strategie en leiderschap. Als keynote spreker en dagvoorzitter maakt hij technologie tastbaar voor boardrooms, directieteams en grote podia, zonder de complexiteit te versimpelen of te verbergen achter buzzwords.

Zijn achtergrond ligt in het bouwen. Als CEO van een technologie scale-up, oprichter van meerdere techbedrijven en organisator van meer dan vijftig TED-events wereldwijd zag hij van dichtbij hoe technologische keuzes doorwerken in strategie, governance en cultuur. Vanuit zijn betrokkenheid bij het World Economic Forum en de BCNL Foundation kijkt hij daarbij niet alleen naar wat technisch mogelijk is, maar ook naar wat bestuurlijk houdbaar en maatschappelijk wenselijk is.

Hij publiceerde vijf boeken, waarvan twee Amazon-bestsellers, en schrijft wekelijks over AI, blockchain en de organisatorische gevolgen van deep tech. Zijn blogs bereikten inmiddels meer dan twee miljoen lezers.

Veel bedrijven kijken nu naar AI alsof werk vooral bestaat uit zichtbare taakjes. Juist daar gaat het vaak mis.

Veel bedrijven kijken nu naar AI alsof werk vooral bestaat uit zichtbare taakjes. Juist daar gaat het vaak mis.

Er is een naam voor deze denkfout: de doorman fallacy. Een van mijn favoriete TED sprekers Rory Sutherland beschrijft het met een simpel voorbeeld in zijn boek. Een hotelportier lijkt op papier vooral iemand die de deur opendoet. Dus wat doet een consultant? Die rekent uit dat een automatische deur goedkoper is. Probleem opgelost. Alleen deed die portier natuurlijk veel meer: gasten herkennen, veiligheid uitstralen, taxi’s regelen, sfeer bewaken, ongewenste situaties aanvoelen, status geven aan het hotel. Je automatiseert dan misschien de deur, maar sloopt ongemerkt een deel van de ervaring.

 

Precies dat zie ik nu rondom AI gebeuren. Managers kijken naar een klantenservicemedewerker, recruiter, accountmanager of junior marketeer en denken: die beantwoordt vragen, schrijft teksten of verwerkt informatie, dus dat kan AI ook. Alleen reduceren ze zo een functie tot het meest simpele, meetbare stukje ervan. Terwijl juist de moeilijker meetbare laag vaak de meeste waarde heeft: context voelen, escalaties herkennen, vertrouwen opbouwen, uitzonderingen afhandelen, risico’s zien, tussen de regels door luisteren.

 

Dat is ook waarom zoveel AI-projecten op papier indrukwekkender zijn dan in de praktijk. Nieuw onderzoek van NBER laat zien dat werk niet simpelweg een stapel losse taken is, maar eerder een keten van stappen waarin coördinatie, volgorde en samenhang ertoe doen. Zodra AI een paar stappen overneemt, verandert dus niet alleen de snelheid van het werk, maar ook de structuur ervan. Soms levert dat winst op. Soms maak je het resterende menselijke werk juist rommeliger, dunner of minder waardevol.

 

De eerste arbeidsmarktcijfers wijzen ook niet op een nette één-op-één vervanging van complete banen. Een veelbesproken NBER-studie naar generatieve AI op de Deense arbeidsmarkt vond wel brede adoptie, maar nog geen grote effecten op lonen of totale gewerkte uren. Dat is interessant, want het suggereert dat AI vaak vooral een deel van het werk raakt, niet meteen de hele rol. De ILO zegt iets vergelijkbaars: generatieve AI zal veel banen eerder transformeren dan volledig vervangen.

 

Wat mij hier vooral in fascineert, is dat de doorman fallacy eigenlijk een waarschuwing is tegen lui management. AI kan geweldig zijn als versterker. Het wordt gevaarlijk zodra leiders gaan doen alsof menselijke waarde volledig zichtbaar is in dashboards, KPI’s en taakbeschrijvingen. Dan optimaliseer je voor efficiency, maar verlies je precies datgene wat een organisatie sterk maakt: nuance, oordeel, relationele intelligentie en het vermogen om met uitzonderingen om te gaan.

 

Misschien is dat wel de kern van deze fase. AI haalt niet alleen werk weg. Het dwingt ons ook om eindelijk beter na te denken over wat werk eigenlijk is. Wie functies blijft zien als een optelsom van simpele handelingen, gaat hier de mist in. Wie begrijpt dat de meeste waarde juist in het onzichtbare zit, gebruikt AI waarschijnlijk een stuk slimmer.

admin

Jan Scheele werkt dertien jaar op het snijvlak van deep tech, strategie en leiderschap. Als keynote spreker en dagvoorzitter maakt hij technologie tastbaar voor boardrooms, directieteams en grote podia, zonder de complexiteit te versimpelen of te verbergen achter buzzwords.

Zijn achtergrond ligt in het bouwen. Als CEO van een technologie scale-up, oprichter van meerdere techbedrijven en organisator van meer dan vijftig TED-events wereldwijd zag hij van dichtbij hoe technologische keuzes doorwerken in strategie, governance en cultuur. Vanuit zijn betrokkenheid bij het World Economic Forum en de BCNL Foundation kijkt hij daarbij niet alleen naar wat technisch mogelijk is, maar ook naar wat bestuurlijk houdbaar en maatschappelijk wenselijk is.

Hij publiceerde vijf boeken, waarvan twee Amazon-bestsellers, en schrijft wekelijks over AI, blockchain en de organisatorische gevolgen van deep tech. Zijn blogs bereikten inmiddels meer dan twee miljoen lezers.

AI-wearables op de werkvloer: geniale hulp of stil privacylek?

AI-wearables op de werkvloer: geniale hulp of stil privacylek?

Er was een tijd dat iedereen het zag wanneer iets werd opgenomen. Iemand pakte zijn telefoon, richtte de camera en drukte op record. Dat moment tussen intentie en opname was zichtbaar voor iedereen in de ruimte/omgeving. Maar die duidelijkheid verdwijnt nu razendsnel. Tijd om hier heel goed naar te kijken als organisatie! In deze blog duik ik er op in.

De nieuwe generatie AI apparaten zit niet meer in onze broekzak en hand, maar op ons lichaam. Brillen, pins, ringen en armbanden kunnen gesprekken opnemen, analyseren en samenvatten zonder dat iemand dat direct doorheeft.

Voor organisaties verandert daar in mijn optiek iets fundamenteels mee: gesprekken die vroeger tijdelijk waren, kunnen nu automatisch worden vastgelegd, opgeslagen en door AI-systemen worden geanalyseerd. Mega handig, maar ook een groot risico. Vooral omdat veel bedrijven nog nauwelijks na hebben gedacht over wat dit betekent.

Het nieuwe datalek waar bedrijven nog geen beleid voor hebben

De markt voor AI-wearables groeit mega snel. Wereldwijd gebruiken inmiddels honderden miljoenen mensen een wearable, van smartwatches tot slimme brillen. Alleen al van de slimme Ray-Ban Meta-brillen zijn inmiddels miljoenen exemplaren verkocht. Deze brillen hebben camera’s, meerdere microfoons en een AI-assistent. Je kunt er scherpe foto’s en video’s mee maken, maar ook vragen stellen aan AI, bellen of gesprekken opnemen. Omdat ze eruitzien als gewone brillen, valt het nauwelijks op wanneer ze actief zijn.

Je ziet hier ook echt een grote switch van de korte metaverse hype, waarin alle tech bedrijven in alle haast VR-apparaten gingen ontwikkelen die je als gebruiker helemaal van de ‘gewone’ wereld afzonderen, naar meer AR-apparaten waarmee je gewoon kan blijven zien en rondlopen. Google werkt aan slimme brillen rond zijn nieuwe Android XR-platform en het Gemini-AI-model. Tijdens demonstraties heeft het bedrijf al laten zien hoe zulke brillen live vertalingen, navigatie en visuele AI-assistentie kunnen bieden.

Samsung ontwikkelt hardware voor datzelfde platform en werkt aan een eerste generatie AI-brillen die de komende jaren op de markt kan verschijnen. Apple heeft nog geen AI-bril aangekondigd, maar volgens meerdere analisten werkt het bedrijf intern aan een bredere strategie rond zogenoemde “ambient AI apparaten”. Daarbij gaat het waarschijnlijk niet om één product, maar om een ecosysteem van apparaten, zoals AirPods met extra sensoren, een AI-gestuurde home hub en uiteindelijk ook slimme brillen.

Tweede categorie: kleine AI-apparaten

Naast brillen ontstaat er ook een tweede categorie gadgets: kleine AI-apparaten die je als pin of clip op je kleding draagt en die gesprekken automatisch kunnen omzetten in transcripties en samenvattingen. Ook verschijnen er ringen en armbanden die spraakmemo’s opslaan of biometrische data combineren met AI-analyse.

De rode draad die je hier heel duidelijk door heen kan trekken: microfoons, sensoren en AI die continu context verzamelen. Experts spreken inmiddels over ambient computing: een wereld waarin technologie niet meer in apparaten zit, maar in onze omgeving. Menselijke ervaringen worden zo de grondstof voor data.

Surveillance secretary

De aantrekkingskracht van deze technologie is mega groot. Zelf gebruik ik bijvoorbeeld een AI-notulist tijdens gesprekken. Niet omdat ik lui wil zijn, maar juist omdat ik beter wil luisteren. Het scheelt enorm veel tijd in verslaglegging en zorgt ervoor dat je tijdens een gesprek meer aandacht hebt voor de inhoud.  Een gesprek kan direct worden omgezet in notulen, actiepunten en taken… en ik kan het gelijk vertalen voor mijn niet-Nederlands sprekende werknemers.

Maar je kan er ook naar kijken, zoals Harvard-onderzoeker Shoshana Zuboff het ooit formuleerde in een van mijn favoriete boeken “Surveillance capitalism claims human experience as free raw material for translation into behavioral data.”

Ik zie de apparaten steeds vaker verschijnen op vergadertafels en bij professionals. Consultants gebruiken ze tijdens klantgesprekken, managers tijdens interne meetings en ondernemers tijdens interviews of brainstormsessies. En ik geef niemand ook ongelijk; minder typen, minder schermen, meer focus op het gesprek, het goed opslaan van alles wat gezegd is… stuk voor stuk ongekend handige features van deze apparaten.

De opname is pas het begin

De grootste uitdaging zit hem in mijn optiek niet in het apparaat zelf, maar in wat er daarna gebeurt. Veel organisaties realiseren zich niet dat opnames vaak automatisch via externe AI-diensten worden verwerkt. Transcripties, samenvattingen en analyses worden gegenereerd in cloudsystemen van leveranciers. Dat betekent dat gesprekken buiten de organisatie kunnen worden verwerkt. Daarmee raken we in mijn optiek direct aan vertrouwelijkheid.

Een brainstorm, strategisch overleg of klantgesprek kan ongemerkt terechtkomen op servers van een externe AI-provider. Zelfs wanneer het doel alleen een samenvatting was. Daarnaast speelt er een tweede probleem: onzichtbaarheid. Waar een smartphone duidelijk zichtbaar is, lijken wearables op gewone accessoires. Een slimme bril oogt als een normale bril, een AI-pin als een klein sieraad. Daardoor weten mensen in een ruimte vaak niet meer of een gesprek wordt opgenomen. Opname lampjes worden weggemoffeld of zelfs onzichtbaar gemaakt.

In mijn optiek raakt dat aan iets fundamenteels binnen organisaties: vertrouwen. Werknemers en klanten moeten vrij kunnen spreken zonder zich voortdurend af te vragen of een gesprek wordt vastgelegd. Bovendien verzamelen veel wearables niet alleen audio, maar ook andere signalen zoals locatie, beweging en biometrische data. AI-systemen kunnen daar patronen uit afleiden die gevoeliger zijn dan de oorspronkelijke data. Daardoor verschuift het risico van “een opname maken” naar “gedrag analyseren”.

Gelukkig is de wet concreter dan veel organisaties denken

Als ik hierover in gesprek ga met leiders, dan krijg ik vaak te horen dat men vindt “dat de wetgeving rond dit onderwerp nog vaag is”. Maar in werkelijkheid bestaan er echt al duidelijke kaders. Onder de AVG gelden beelden en audio “van herkenbare personen” als persoonsgegevens. Zodra een organisatie gesprekken opneemt, analyseert of opslaat, is er sprake van gegevensverwerking. Dat betekent dat er een duidelijke grondslag moet zijn, dat het doel helder moet zijn en dat er niet meer data mag worden verzameld dan noodzakelijk.

Worden gezondheidsgegevens of biometrische gegevens verwerkt, dan gelden er nog strengere regels omdat deze onder bijzondere persoonsgegevens vallen. Ook het strafrecht bevat hieromheen duidelijke grenzen. Het opnemen van gesprekken waar je zelf geen deelnemer aan bent, kan zelfs strafbaar zijn. Voor verborgen camera-opnames in niet-openbare ruimtes gelden eveneens specifieke bepalingen, hebben we gezien bij verschillende Airbnb schandalen waar verborgen camera’s waren opgehangen in bijvoorbeeld de douche en slaapkamer door de verhuurder.

Voor werkgevers komt daar nog een extra laag bij. Organisaties mogen werknemers niet zomaar controleren of monitoren. Wanneer technologie kan worden gebruikt om gedrag of prestaties van werknemers te volgen, speelt bovendien de ondernemingsraad een rol.

Daarnaast komt er steeds meer regelgeving rond AI zelf. De Europese AI-verordening (of AI Act) introduceert strengere eisen voor systemen met grote maatschappelijke impact. Voor organisaties betekent dat experimenteren met AI-toepassingen niet langer vrijblijvend is: elke toepassing moet aantoonbaar compliant zijn, met inzicht in risico’s, gebruikte data, besluitvorming en menselijk toezicht.

Ga vandaag werken aan een privacy push

Een van de hoofdoorzaken waarom zoveel AI pilots falen volgens het beruchte MIT onderzoek? Het missen van governance rondom het gebruik van de technologie. Veel organisaties willen snel aan de slag en zien governance eerder als onnodig papierwerk wat alleen maar vertraagt. Terwijl het in mijn optiek essentieel is om te zorgen voor een gezonde, volwassen integratie. Zo zie ik het vraagstuk rondom de AI gadgets ook; een vraagstuk rondom governance, wat je in mijn optiek prima kan ondervangen.

  1. Breng in kaart welke AI-wearables en transcriptietools binnen de organisatie worden gebruikt, inclusief tools die medewerkers zelf meenemen omdat ze handig zijn.
  2. Bepaal welke ruimtes en situaties extra gevoelig zijn, zoals boardrooms, HR-gesprekken, juridische besprekingen, medische settings of R&D-overleggen.
  3. Leg vast (en bespreek met alle collega’s) wanneer opnames zijn toegestaan, wanneer expliciete melding verplicht is en hoe transcripties worden opgeslagen. Behandel AI-wearables simpelweg als opnameapparatuur.
  4. Nieuwe technologie die mogelijk grote impact heeft op privacy of vertrouwelijkheid vereist vaak een zogenaamd Data Protection Impact Assessment.
  5. Veel medewerkers realiseren zich vaak niet wat er technisch gebeurt wanneer een AI-tool een gesprek automatisch samenvat. Uitleg hierover is in mijn optiek daarom ook echt heel belangrijk.
  6. Beoordeel je leveranciers kritisch. Waar wordt data opgeslagen, wie heeft toegang, worden opnames gebruikt voor modeltraining en hoe lang blijven gegevens bewaard?

AI-wearables en werkvloer

AI-wearables verdwijnen de komende jaren niet meer van de werkvloer. Net zoals smartphones ooit vanzelfsprekend werden, zullen slimme brillen, pins en andere draagbare AI-apparaten langzaam onderdeel worden van hoe we werken en communiceren.

Zoals technologiehistoricus Melvin Kranzberg ooit zo mooi schreef: “Technology is neither good nor bad; nor is it neutral.” Organisaties moeten in mijn optiek niet alleen nadenken over nieuwe tools, maar ook over nieuwe etiquette. Wanneer mag een gesprek worden vastgelegd? Wanneer niet? En hoe transparant zijn we daarover? De technologie wordt steeds kleiner en slimmer. De verantwoordelijkheid om er verstandig mee om te gaan wordt daarmee alleen maar groter.

admin

Jan Scheele werkt dertien jaar op het snijvlak van deep tech, strategie en leiderschap. Als keynote spreker en dagvoorzitter maakt hij technologie tastbaar voor boardrooms, directieteams en grote podia, zonder de complexiteit te versimpelen of te verbergen achter buzzwords.

Zijn achtergrond ligt in het bouwen. Als CEO van een technologie scale-up, oprichter van meerdere techbedrijven en organisator van meer dan vijftig TED-events wereldwijd zag hij van dichtbij hoe technologische keuzes doorwerken in strategie, governance en cultuur. Vanuit zijn betrokkenheid bij het World Economic Forum en de BCNL Foundation kijkt hij daarbij niet alleen naar wat technisch mogelijk is, maar ook naar wat bestuurlijk houdbaar en maatschappelijk wenselijk is.

Hij publiceerde vijf boeken, waarvan twee Amazon-bestsellers, en schrijft wekelijks over AI, blockchain en de organisatorische gevolgen van deep tech. Zijn blogs bereikten inmiddels meer dan twee miljoen lezers.

Waarom ik zo mega enthousiast ben over synthetische persona’s…. en er toch voor wil waarschuwen

Waarom ik zo mega enthousiast ben over synthetische persona’s…. en er toch voor wil waarschuwen

De afgelopen tijd heb ik voor twee van mijn bedrijven lopen experimenteren met synthetische persona’s. Hier laat je een complete marketingcampagne “meelopen” door een digitale versie van je doelgroep. Niet alleen een advertentie op een scherm, maar de hele route: een billboard langs de weg, een poster in de lift, een LinkedIn-ad, een eventstand, een landingspagina en zelfs het afrekenmoment. Dat is precies de belofte van synthetic personas. Je test niet meer pas ná livegang wat werkt, maar al ervoor. En juist daarom wordt dit voor organisaties zo interessant in mijn optiek.

De aantrekkingskracht is logisch. Klassiek marktonderzoek kost tijd, geld en organisatie. Synthetic personas beloven snelheid, schaal en veel meer iteraties. Je kunt in korte tijd meerdere varianten van een boodschap, prijs, propositie of campagne testen en veel eerder zien waar mensen afhaken, wat onduidelijk is en welke toon eerder irriteert dan overtuigt. Je kan hiermee als bedrijf sneller hypotheses aanscherpen en onderzoekskosten drukken. In vakmedia wordt dit ook steeds vaker neergezet als een manier om veel eerder in het proces van gokken naar leren te gaan.

Voor bedrijven zit de echte waarde volgens mij vooral in drie dingen. Ten eerste: pretesting van campagnes. Je kunt synthetische doelgroepen laten reageren op verschillende contactmomenten en zo eerder zien of je merkverhaal overeind blijft van eerste indruk tot conversie. Ten tweede: sneller scenario’s vergelijken. Welke headline werkt beter voor een prijsgevoelige klant, welke toon voor een zakelijke beslisser, welke call-to-action voelt te agressief? Ten derde: interne discussies beter maken. In plaats van meningen over meningen krijg je in elk geval een gesimuleerde reality check terug.

Maar hier zit in mijn optiek ook meteen de val. Een synthetic persona is geen echte klant. Nielsen Norman Group is daar behoorlijk duidelijk over: dit soort AI-profielen kan nuttig zijn voor snelle verkenning of hypothesevorming, maar niet als vervanging van echt gebruikersonderzoek. De simulatie klinkt vaak overtuigend, soms té overtuigend. Daardoor kunnen teams gaan denken dat ze “de klant al gesproken hebben”, terwijl ze in feite met een statistisch aannemelijke afspiegeling praten. Dat is een groot verschil.

Dus hoe zet je dit als bedrijf slim in? Niet als orakel, wel als vliegsimulator. Gebruik synthetic personas om vroeg te testen, creatieve routes te vergelijken, frictie op te sporen en zwakke plekken in een campagne bloot te leggen. Gebruik ze niet als laatste woord over emotie, merkgevoel of echte koopmotivatie. Daarvoor heb je nog steeds echte mensen nodig. Bain formuleert het eigenlijk het best in mijn optiek: synthetic personas zijn een force multiplier, geen fundament.

Dit kan voor bedrijven echt mega krachtig worden, juist omdat marketingbudgetten onder druk staan en snelheid telt. Maar de fout zou zijn om te denken dat simulatie hetzelfde is als werkelijkheid. Synthetic personas kunnen je dichter bij de markt brengen. Ze zijn de markt niet.

admin

Jan Scheele werkt dertien jaar op het snijvlak van deep tech, strategie en leiderschap. Als keynote spreker en dagvoorzitter maakt hij technologie tastbaar voor boardrooms, directieteams en grote podia, zonder de complexiteit te versimpelen of te verbergen achter buzzwords.

Zijn achtergrond ligt in het bouwen. Als CEO van een technologie scale-up, oprichter van meerdere techbedrijven en organisator van meer dan vijftig TED-events wereldwijd zag hij van dichtbij hoe technologische keuzes doorwerken in strategie, governance en cultuur. Vanuit zijn betrokkenheid bij het World Economic Forum en de BCNL Foundation kijkt hij daarbij niet alleen naar wat technisch mogelijk is, maar ook naar wat bestuurlijk houdbaar en maatschappelijk wenselijk is.

Hij publiceerde vijf boeken, waarvan twee Amazon-bestsellers, en schrijft wekelijks over AI, blockchain en de organisatorische gevolgen van deep tech. Zijn blogs bereikten inmiddels meer dan twee miljoen lezers.

AI als reden voor ontslag: waarheid of handig excuus?

AI als reden voor ontslag: waarheid of handig excuus?

AI als reden voor ontslag: waarheid of handig excuus?

Bijna elke week zie je hetzelfde patroon. Een bedrijf schrapt banen, noemt AI, en de buitenwereld denkt: logisch, de toekomst is begonnen. Alleen is dat verhaal vaak netter dan de werkelijkheid. Natuurlijk verandert AI werk. Dat is geen hype meer. Werkgevers verwachten dat tegen 2030 ongeveer 39 procent van de kernvaardigheden van werknemers verandert, en 40 procent zegt dat ze personeel willen afbouwen waar AI taken kan automatiseren. Tegelijk verwacht men wereldwijd ook miljoenen nieuwe banen. Het beeld is dus niet: alles verdwijnt. Het beeld is: werk schuift, taken verschuiven en organisaties proberen alvast op die toekomst vooruit te lopen.

AI-washing

Wat mij hierin opvalt, is dat veel ontslagen vandaag niet worden veroorzaakt door wat AI al overtuigend heeft bewezen, maar door wat directies hopen dat AI straks kan. Dat is een groot verschil. Er wordt dus niet alleen gesneden op prestaties, maar ook op belofte. Juist daarom is de term “AI-washing” zo interessant geworden. Sam Altman zei het onlangs opvallend eerlijk: sommige bedrijven schuiven ontslagen op het bord van AI terwijl ze die toch al wilden doorvoeren. De cijfers maken dat nog duidelijker. In de VS werden in 2025 zo’n 54.836 ontslagen expliciet aan AI gekoppeld. Dat klinkt enorm, tot je ziet dat het totale aantal aangekondigde ontslagen ruim boven de 1,2 miljoen lag. AI was dus zichtbaar, maar niet de hoofdverklaring. Economische druk, sluitingen en klassieke herstructureringen waren veel grotere factoren. Met andere woorden: AI speelt mee, maar wordt in de headlines vaak groter gemaakt dan in de werkelijkheid.

AI-assistent

Klarna werd het bekendste uithangbord van dit verhaal. Het bedrijf meldde trots dat zijn AI-assistent in korte tijd werk deed dat gelijkstond aan 700 fulltime klantenservicemedewerkers. Dat is precies het soort claim waar media en beleggers van smullen. Alleen zegt zo’n getal vooral iets over volume, niet automatisch over kwaliteit, escalaties of complexe klantvragen. Dat zie je ook elders. Marc Benioff zei dat Salesforce ongeveer 4.000 supportrollen heeft teruggebracht door AI-agents en dat AI inmiddels 30 tot 50 procent van bepaald werk oppakt. Dat klinkt revolutionair, maar het vertelt nog niet hoeveel extra controle, correctie en menselijk herstelwerk er achter de schermen nodig blijft. Precies daar zit volgens mij de denkfout. Veel leiders praten over productiviteit alsof die vanzelf uit AI stroomt. In de praktijk ontstaat vaak nieuw werk: output controleren, fouten corrigeren, uitzonderingen afhandelen, risico’s beperken. De medewerker verdwijnt dan niet altijd, maar verandert in een soort toezichthouder op machines die nog lang niet zelfstandig genoeg zijn. Dat voelt in een boardroom efficiënt, maar op de werkvloer soms vooral als rommel achteraf opruimen.

AI-gedreven

Sommige werkgevers blijken daar ook al spijt van te hebben: in recent HR-onderzoek zegt 55 procent dat AI-gedreven ontslagen achteraf niet goed hebben uitgepakt, en de verwachting is dat een flink deel van die rollen stilletjes weer terugkomt. Het punt waar ik zelf het meest over blijf nadenken, zit nog ergens anders. Het grootste risico is misschien niet de spectaculaire massaontslaggolf, maar het wegvallen van instapwerk. Juniorfuncties worden minder snel opgevuld, eenvoudige taken verdwijnen als eerste en daarmee verdwijnen ook de eerste treden van de ladder. Dat is strategisch veel gevaarlijker dan één persbericht over efficiency. Want als starters minder kansen krijgen om vlieguren te maken, waar komen dan de seniors van morgen vandaan? Dus klopt het wel, al die ontslagen zogenaamd door AI? Soms wel. Vaak deels. Regelmatig ook niet echt. In veel gevallen is AI geen zuivere oorzaak, maar een versneller, een legitimatie of een mooi verhaal voor de markt. Dat maakt deze fase zo verwarrend. Niet omdat AI onbelangrijk is, maar juist omdat de technologie echt iets verandert én tegelijk wordt gebruikt om heel oude managementkeuzes futuristisch te laten klinken. Dat is misschien de nuchterste conclusie van dit moment: niet elk ontslag “door AI” is een technologisch wonder. Soms is het gewoon een bezuiniging met een slimme verpakking…
admin

Jan Scheele werkt dertien jaar op het snijvlak van deep tech, strategie en leiderschap. Als keynote spreker en dagvoorzitter maakt hij technologie tastbaar voor boardrooms, directieteams en grote podia, zonder de complexiteit te versimpelen of te verbergen achter buzzwords.

Zijn achtergrond ligt in het bouwen. Als CEO van een technologie scale-up, oprichter van meerdere techbedrijven en organisator van meer dan vijftig TED-events wereldwijd zag hij van dichtbij hoe technologische keuzes doorwerken in strategie, governance en cultuur. Vanuit zijn betrokkenheid bij het World Economic Forum en de BCNL Foundation kijkt hij daarbij niet alleen naar wat technisch mogelijk is, maar ook naar wat bestuurlijk houdbaar en maatschappelijk wenselijk is.

Hij publiceerde vijf boeken, waarvan twee Amazon-bestsellers, en schrijft wekelijks over AI, blockchain en de organisatorische gevolgen van deep tech. Zijn blogs bereikten inmiddels meer dan twee miljoen lezers.

Mijn wekelijkse

Shot inspiratie

Elke week ontvangen 400+ mensen een shot deep-tech inspiratie. Ook ontvangen? Schrijf je hier rechts gratis in.

Ik spam nooit en gebruik het mailadres
alleen voor deze nieuwsbrief.

Copyright © 2026 Jan Scheele

Ook elke week een shot deeptech inspiratie?

Meld je aan om elk weekend een gratis shot inspiratie te ontvangen in de mailbox.

Ik spam nooit en gebruik het mailadres
alleen voor deze nieuwsbrief.

Paid Search Marketing
Search Engine Optimization
Email Marketing
Conversion Rate Optimization
Social Media Marketing
Google Shopping
Influencer Marketing
Amazon Shopping
Explore all solutions