In 1961 stond John F. Kennedy voor een groep ingenieurs bij NASA. De Verenigde Staten liepen achter in de ruimtewedloop en de technische onzekerheden waren enorm. Toch ging het in zijn woorden nauwelijks over raketten of berekeningen.
Hij sprak over richting. Over het vermogen om een ambitie te formuleren die groot genoeg was om keuzes af te dwingen, ook als de weg ernaartoe nog onduidelijk was. Niet de technologie stond centraal, maar het kompas.
Die scène komt steeds vaker in me op wanneer gesprekken over AI en strategie elkaar kruisen. Niet omdat AI hetzelfde is als de NASA van toen, maar omdat de kernvraag identiek is: begrijpen leiders voldoende wat er gebeurt om scherpe keuzes te maken?
Veel van mijn klanten investeren inmiddels fors in AI. Er draaien pilots, er zijn dashboards, er wordt geëxperimenteerd met generatieve modellen. Tegelijkertijd hoor ik van veel leiders terug, dat ze het gevoel hebben dat het niet echt landt. Projecten concurreren met elkaar, teams spreken verschillende talen en bestuurders voelen zich afhankelijk van specialisten zonder zelf het overzicht te hebben. De kloof zit hem hier in mijn optiek zelden in technologie, maar bijna altijd in strategische fluency.
Strategische fluency is geen technische vaardigheid. Het is het vermogen om te begrijpen waar AI waarde kan toevoegen, waar niet, en hoe initiatieven zich verhouden tot bredere bedrijfsdoelen. Leiders met strategische fluency hoeven geen modellen te bouwen, maar kunnen wel de juiste vragen stellen. Ze zien AI niet als innovatie op zich, maar als onderdeel van een samenhangend verhaal over groei, risico en verantwoordelijkheid.
Wat daarbij opvalt, is dat veel organisaties AI benaderen alsof het een losse versnelling is. Meer data, snellere analyses, efficiëntere processen. De praktijk laat iets anders zien. AI werkt eerder als een vergrootglas. Wat strategisch helder is, wordt scherper. Wat diffuus is, wordt pijnlijk zichtbaar. Zonder duidelijke prioriteiten leidt AI tot fragmentatie, niet tot versnelling.
Hier helpt een eenvoudig denkkader: zie AI als een nieuwe medewerker aan de bestuurstafel. Een medewerker die extreem snel patronen ziet, maar geen gevoel heeft voor context, ethiek of lange termijn. Die medewerker kan briljant zijn, mits goed aangestuurd. Zonder kaders gaat hij alle kanten op. Governance is in dat beeld geen rem, maar de functiebeschrijving. Het bepaalt waar AI mag meedenken, waar besluiten vallen en wie verantwoordelijkheid draagt.
Recente analyses laten zien dat organisaties die governance vroeg betrekken bij AI-initiatieven sneller schaal bereiken en minder last hebben van versnippering. Niet omdat ze voorzichtiger zijn, maar omdat ze duidelijker zijn. Strategische fluency betekent hier: begrijpen dat snelheid zonder richting uiteindelijk vertraging oplevert.
Tegelijkertijd is er spanning. Bestuurders voelen de druk om mee te gaan, terwijl onzekerheid blijft bestaan. Wat als we kansen missen? Wat als we te veel vertrouwen op systemen die we niet volledig doorgronden? Die spanning verdwijnt niet door meer experimenten, maar door beter strategisch gesprek. AI dwingt leiders om explicieter te worden over aannames, waarden en keuzes. Dat is ongemakkelijk, maar ook gezond.
Wat nu al zichtbaar is, is dat de meest succesvolle AI-toepassingen voortkomen uit organisaties waar strategie geen jaarlijks document is, maar een continu gesprek. Daar wordt AI niet ingezet om beslissingen te automatiseren, maar om besluitvorming te verrijken. Scenario’s worden scherper, trade-offs explicieter, en blinde vlekken sneller herkend.
Strategische fluency vraagt daarom iets fundamenteels van leiderschap. Minder leunen op controle, meer op begrip. Minder focus op tools, meer op samenhang. Het is het verschil tussen vragen wat AI kan, en vragen wat wij willen dat het doet.
In een tijd waarin technologie sneller beweegt dan organisaties, is strategische fluency in mijn optiek geen luxe, maar een vorm van volwassenheid. De vraag die blijft hangen is eenvoudig, maar niet gemakkelijk: als iemand vandaag met frisse ogen naar jouw AI-initiatieven kijkt, zien zij dan richting, of vooral activiteit?
Jan Scheele werkt dertien jaar op het snijvlak van deep tech, strategie en leiderschap. Als keynote spreker en dagvoorzitter maakt hij technologie tastbaar voor boardrooms, directieteams en grote podia, zonder de complexiteit te versimpelen of te verbergen achter buzzwords.
Zijn achtergrond ligt in het bouwen. Als CEO van een technologie scale-up, oprichter van meerdere techbedrijven en organisator van meer dan vijftig TED-events wereldwijd zag hij van dichtbij hoe technologische keuzes doorwerken in strategie, governance en cultuur. Vanuit zijn betrokkenheid bij het World Economic Forum en de BCNL Foundation kijkt hij daarbij niet alleen naar wat technisch mogelijk is, maar ook naar wat bestuurlijk houdbaar en maatschappelijk wenselijk is.
Hij publiceerde vijf boeken, waarvan twee Amazon-bestsellers, en schrijft wekelijks over AI, blockchain en de organisatorische gevolgen van deep tech. Zijn blogs bereikten inmiddels meer dan twee miljoen lezers.
In deze editie verkennen we drie uiteenlopende bewegingen: van grenzen tussen lichaam en internet tot hardware die onze relatie met AI kan veranderen, en een risico-product dat de verzekeringswereld aan het verschuiven brengt.
Internet of brains Er ontstaat een ambitieus project dat verder gaat dan wearables en sensoren: een open netwerk dat hersensignalen koppelt aan applicaties op EEG-apparaten. Initiatieven zoals Elata Biosciences bouwen open infrastructuur waarin ontwikkelaars zonder gespecialiseerde kennis zelf “neuro-apps” kunnen maken en zo toepassingen voor spel, onderzoek en mogelijk welzijn verkennen. Dit past in bredere onderzoeksprogramma’s rond de zogenaamde Internet of Brains, die willen dat mensen via hersensignalen systemen aansturen en fysiek beperkte interacties overstijgen. Dergelijke systemen roepen veel vragen op rond ethiek, privacy en betrouwbaarheid van interpretatie van hersendata, maar bieden tegelijk nieuwe perspectieven voor medicinale en creatieve toepassingen. 
De Apple pin Apple werkt volgens bronnen aan een klein draagbaar apparaatje met AI-capaciteit, camera’s, microfoons en speaker in een vorm die doet denken aan een AirTag. Het idee is dat dit een nieuwe toegang tot AI-assistentie biedt, los van telefoon of horloge en mogelijk al in 2027 verschijnt. Geruchten wijzen erop dat spraakinteractie centraal staat en dat de hardware past binnen bredere AI-ambities van het bedrijf. Dit product komt op een markt waar eerdere pogingen, zoals die van Humane, gemengde resultaten lieten zien: mooie concepten maar beperkte impact en acceptatie. De uitdaging voor Apple zal zijn om waarde te leveren zonder een extra gadget te creëren waarvan de praktische bruikbaarheid beperkt blijft. 
De eerste verzekering voor zelfrijzende apparaten In de VS introduceert verzekeraar Lemonade een nieuwe polis gericht op Tesla’s Full Self-Driving (FSD) systeem die de premies per gereden kilometer met circa 50 procent kan verlagen als de auto in de semi-autonome modus rijdt. Dit is mogelijk doordat de verzekeraar via toegang tot voertuigdata precies kan onderscheiden welke kilometers met FSD zijn gereden. Traditioneel zijn autonome voertuigen lastig te verzekeren vanwege onzekere risico’s, maar data-gestuurde modellen kunnen dat perspectief verschuiven. Tesla’s FSD blijft volgens regelgevers een assistentiesysteem dat menselijke supervisie vereist, en veiligheidsexperts houden enige scepsis over het echte effect op ongelukken. 
Jan Scheele werkt dertien jaar op het snijvlak van deep tech, strategie en leiderschap. Als keynote spreker en dagvoorzitter maakt hij technologie tastbaar voor boardrooms, directieteams en grote podia, zonder de complexiteit te versimpelen of te verbergen achter buzzwords.
Zijn achtergrond ligt in het bouwen. Als CEO van een technologie scale-up, oprichter van meerdere techbedrijven en organisator van meer dan vijftig TED-events wereldwijd zag hij van dichtbij hoe technologische keuzes doorwerken in strategie, governance en cultuur. Vanuit zijn betrokkenheid bij het World Economic Forum en de BCNL Foundation kijkt hij daarbij niet alleen naar wat technisch mogelijk is, maar ook naar wat bestuurlijk houdbaar en maatschappelijk wenselijk is.
Hij publiceerde vijf boeken, waarvan twee Amazon-bestsellers, en schrijft wekelijks over AI, blockchain en de organisatorische gevolgen van deep tech. Zijn blogs bereikten inmiddels meer dan twee miljoen lezers.
Veel AI-nieuws gaat over snellere modellen en nieuwe tools. In het ARK Big Ideas 2026-rapport zie je iets anders: AI verschuift van software naar infrastructuur die hele sectoren herontwerpt. Drie trends sprongen er voor mij echt uit.
1. Agent-native internet: van klikken naar delegeren
ARK beschrijft hoe AI-agents een steeds groter deel van zoeken, vergelijken en kopen gaan overnemen. Niet als losse apps, maar via nieuwe protocollen die zijn gebouwd voor agent-to-agent communicatie en veilige transacties.
Wat ik hier belangrijk aan vind: dit raakt direct aan businessmodellen. Als AI straks beslist wat jij koopt, verschuift concurrentie van zichtbaarheid naar betrouwbaarheid en data-kwaliteit. Veel bedrijven zijn hier strategisch nog totaal niet op voorbereid.
2. AI-native biologie: wetenschap op machinesnelheid
Volgens ARK gaat AI niet alleen kenniswerk versnellen, maar ook laboratoria automatiseren. AI ontwerpt experimenten, stuurt robots aan en leert van elke test. Daardoor wordt medische innovatie goedkoper en veel sneller.
Mijn lezing: dit is misschien wel de meest onderschatte AI-toepassing. Minder hype, maar enorme impact. Hier verschuift zorg van reageren naar voorspellen en voorkomen, met gevolgen voor hoe zorgstelsels, verzekeringen en farmaceuten gaan werken.
3. Slimme pillen voor interne gezondheidsmonitoring
ARK wijst op de opkomst van nieuwe vormen van diagnostiek, waaronder capsules met sensoren die data meten terwijl ze door het lichaam bewegen. Niet als gadget, maar als klinisch instrument voor vroege detectie.
Wat mij hierin raakt: dit brengt data letterlijk naar de bron. Minder momentopnames, meer continue metingen. Dat verandert wat een diagnose überhaupt betekent.
Wat deze drie trends volgens ARK verbindt, is wat zij “The Great Acceleration” noemen: technologieën die elkaar versterken en daardoor veel sneller opschalen dan we gewend zijn. AI versnelt biologie, biologie voedt nieuwe therapieën, infrastructuur maakt grootschalige inzet mogelijk.
Mijn voorspelling, in lijn met het rapport: de grootste AI-impact van de komende jaren zit niet in betere chats, maar in systemen die zelfstandig handelen, wetenschap automatiseren en gezondheid eerder beschermen dan herstellen.
Jan Scheele werkt dertien jaar op het snijvlak van deep tech, strategie en leiderschap. Als keynote spreker en dagvoorzitter maakt hij technologie tastbaar voor boardrooms, directieteams en grote podia, zonder de complexiteit te versimpelen of te verbergen achter buzzwords.
Zijn achtergrond ligt in het bouwen. Als CEO van een technologie scale-up, oprichter van meerdere techbedrijven en organisator van meer dan vijftig TED-events wereldwijd zag hij van dichtbij hoe technologische keuzes doorwerken in strategie, governance en cultuur. Vanuit zijn betrokkenheid bij het World Economic Forum en de BCNL Foundation kijkt hij daarbij niet alleen naar wat technisch mogelijk is, maar ook naar wat bestuurlijk houdbaar en maatschappelijk wenselijk is.
Hij publiceerde vijf boeken, waarvan twee Amazon-bestsellers, en schrijft wekelijks over AI, blockchain en de organisatorische gevolgen van deep tech. Zijn blogs bereikten inmiddels meer dan twee miljoen lezers.
Een brein in een computer, maar dan als proefmodel
Bij het Jülich Research Centre in Duitsland draaien wetenschappers hersenmodellen op een van de krachtigste supercomputers van Europa. Ze proberen niet een mens na te maken, maar vooral te begrijpen hoe signalen zich door grote netwerken van hersencellen bewegen. Dat helpt bij onderzoek naar aandoeningen zoals epilepsie en Parkinson. De modellen bevatten al netwerken met tientallen miljarden cellen, vergelijkbaar met delen van de menselijke hersenschors. Toch blijft het een vereenvoudigde versie. Geen gevoelens, geen zintuigen, geen bewustzijn. Wel een veilige manier om te testen wat in echte hersenen niet kan.
Geheugen gemaakt van paddenstoelen
Bij Ohio State University gebruiken onderzoekers shiitake-paddenstoelen als onderdeel van simpele geheugencircuits. De structuren in de schimmel blijken elektrische signalen even vast te houden, een basisvorm van geheugen. In tests konden ze duizenden schakelingen per seconde uitvoeren met zo’n 90 procent nauwkeurigheid. Dit gaat geen laptops vervangen. Daarvoor is het veel te groot en te langzaam. Toch is het idee interessant: elektronica die groeit, weinig energie kost en geen zeldzame grondstoffen nodig heeft. Voor toepassingen in sensoren of duurzame elektronica kan dit op termijn relevant worden.
Onderzoekers zien planten letterlijk water verliezen
Aan de University of Illinois hebben wetenschappers een systeem gebouwd waarmee ze live kunnen zien hoe kleine openingen in bladeren open en dicht gaan. Tegelijk meten ze hoeveel water en kooldioxide er doorheen stroomt. Dat klinkt klein, maar dit proces bepaalt hoeveel een plant groeit en hoeveel water hij nodig heeft. Dit is belangrijk voor landbouw in drogere gebieden. Wie precies weet wanneer planten water verspillen, kan gericht zoeken naar rassen die zuiniger zijn. Voorlopig gebeurt dit nog in het lab, niet op het veld, maar het geeft onderzoekers eindelijk een bewegend beeld in plaats van losse momentopnames.
Jan Scheele werkt dertien jaar op het snijvlak van deep tech, strategie en leiderschap. Als keynote spreker en dagvoorzitter maakt hij technologie tastbaar voor boardrooms, directieteams en grote podia, zonder de complexiteit te versimpelen of te verbergen achter buzzwords.
Zijn achtergrond ligt in het bouwen. Als CEO van een technologie scale-up, oprichter van meerdere techbedrijven en organisator van meer dan vijftig TED-events wereldwijd zag hij van dichtbij hoe technologische keuzes doorwerken in strategie, governance en cultuur. Vanuit zijn betrokkenheid bij het World Economic Forum en de BCNL Foundation kijkt hij daarbij niet alleen naar wat technisch mogelijk is, maar ook naar wat bestuurlijk houdbaar en maatschappelijk wenselijk is.
Hij publiceerde vijf boeken, waarvan twee Amazon-bestsellers, en schrijft wekelijks over AI, blockchain en de organisatorische gevolgen van deep tech. Zijn blogs bereikten inmiddels meer dan twee miljoen lezers.
AI verandert steeds meer bedrijven op twee manieren tegelijk. De vorm van organisaties verschuift van piramide naar diamant. Minder brede onderkant, meer zwaarte in het midden. Taken die vroeger leerwerk waren, zoals eerste analyses, samenvattingen en controles, worden steeds vaker door systemen opgepakt. Wat overblijft, is werk dat vraagt om context, afweging en verantwoordelijkheid. Daardoor wordt het midden van de organisatie belangrijker dan ooit.
Tegelijk verandert de manier waarop teams werken. Steeds vaker ontstaan centaur teams: mensen en AI die samen één taak uitvoeren. Mensen bepalen richting, betekenis en grenzen. AI verkent opties, rekent door, vergelijkt patronen en versnelt het proces. Dat kan tot betere besluiten leiden, niet omdat AI slimmer is, maar omdat het menselijk oordeel wordt ondersteund door meer perspectief en snelheid.
Hier ontstaat ook spanning. De diamant roept de vraag op waar talent zich nog ontwikkelt als instapwerk verdwijnt. Wie leert het vak, wie maakt fouten, wie groeit door. De centaur roept een andere vraag op: wie blijft wakker als systemen steeds overtuigender klinken. Automatisering helpt, maar eigenaarschap kan niet worden geautomatiseerd.
Wat ik zie bij leiders die hier bewust mee bezig zijn, is dat het gesprek verschuift. Minder focus op efficiency alleen, meer aandacht voor hoe besluiten tot stand komen. Minder praten over tools, meer over verantwoordelijkheden, toezicht en professionele oordeelsvorming. AI wordt dan geen trucje, maar een vast onderdeel van hoe teams denken en werken.
Dit is geen verre toekomst. Deze herontwerpen gebeuren nu. In advies, finance, overheid, marketing, zorg. Minder lagen, andere rollen, nieuwe combinaties van mens en technologie. Wie dit reduceert tot kostenbesparing, mist de kern. Het gaat over hoe organisaties slimmer, zorgvuldiger en consistenter kunnen beslissen in een wereld die sneller beweegt.
Misschien is dat de echte leiderschapsvraag van dit moment: als je organisatie een diamant wordt en je teams steeds meer op centaurs lijken, waar borg je dan menselijk oordeel, vakmanschap en moreel kompas in besluiten die steeds sneller genomen worden?
Jan Scheele werkt dertien jaar op het snijvlak van deep tech, strategie en leiderschap. Als keynote spreker en dagvoorzitter maakt hij technologie tastbaar voor boardrooms, directieteams en grote podia, zonder de complexiteit te versimpelen of te verbergen achter buzzwords.
Zijn achtergrond ligt in het bouwen. Als CEO van een technologie scale-up, oprichter van meerdere techbedrijven en organisator van meer dan vijftig TED-events wereldwijd zag hij van dichtbij hoe technologische keuzes doorwerken in strategie, governance en cultuur. Vanuit zijn betrokkenheid bij het World Economic Forum en de BCNL Foundation kijkt hij daarbij niet alleen naar wat technisch mogelijk is, maar ook naar wat bestuurlijk houdbaar en maatschappelijk wenselijk is.
Hij publiceerde vijf boeken, waarvan twee Amazon-bestsellers, en schrijft wekelijks over AI, blockchain en de organisatorische gevolgen van deep tech. Zijn blogs bereikten inmiddels meer dan twee miljoen lezers.
De meest interessante technologie van dit moment zit niet meer in schermen of gadgets. Ze zit in onze slaap, in onze mond en zelfs op onze nagels. Drie voorbeelden die laten zien hoe innovatie steeds persoonlijker en lichamelijker wordt.
Talloze ziekten voorspellen via één nacht slaap
Een nieuwe studie in Nature Medicine laat zien hoe krachtig slaapdata kan zijn. Onderzoekers ontwikkelden SleepFM, een AI-model dat is getraind op meer dan 585.000 uur aan slaapmetingen. Op basis van één nacht slaap kan het model onder andere het risico op dementie, hartfalen en een hartaanval voorspellen, met nauwkeurigheden rond de 80 tot 85 procent. Dat is vaak jaren voordat klachten zichtbaar worden. Tegelijk roept dit voor mij wel vragen op; hoe betrouwbaar zijn zulke voorspellingen op individueel niveau en wat doen we met die kennis? Vroeg weten kan helpen bij preventie, maar kan ook onrust veroorzaken.
Muziek luisteren via een lolly
Een product dat tegelijk absurd en slim aanvoelt: een lolly die muziek afspeelt via botgeleiding. Lollipop Star stuurt trillingen via het kaakbot direct naar het binnenoor, terwijl je een fruitige smaak proeft. Je hoort muziek zonder oordopjes, simpelweg door een lolly in je mond. Het is geen wereldschokkende innovatie, maar wel een mooi voorbeeld van hoe bestaande technologie nieuwe vormen krijgt. De vraag is of dit een gimmick blijft of dat botgeleiding vaker opduikt in onverwachte, alledaagse producten.
Nagellak die van kleur verandert
Met iPolish wordt zelfs nagellak dynamisch. Het concept laat gebruikers digitaal van kleur wisselen zonder opnieuw te lakken. De technologie combineert een speciale toplaag met aansturing via een app, waardoor je nagels zich aanpassen aan je outfit of stemming. Praktisch gezien roept dat vragen op over duurzaamheid, kosten en dagelijks gebruik. Tegelijk past het in een bredere trend waarin mode en technologie steeds meer samenvallen. Flexibel en persoonlijk instelbaar.
Jan Scheele werkt dertien jaar op het snijvlak van deep tech, strategie en leiderschap. Als keynote spreker en dagvoorzitter maakt hij technologie tastbaar voor boardrooms, directieteams en grote podia, zonder de complexiteit te versimpelen of te verbergen achter buzzwords.
Zijn achtergrond ligt in het bouwen. Als CEO van een technologie scale-up, oprichter van meerdere techbedrijven en organisator van meer dan vijftig TED-events wereldwijd zag hij van dichtbij hoe technologische keuzes doorwerken in strategie, governance en cultuur. Vanuit zijn betrokkenheid bij het World Economic Forum en de BCNL Foundation kijkt hij daarbij niet alleen naar wat technisch mogelijk is, maar ook naar wat bestuurlijk houdbaar en maatschappelijk wenselijk is.
Hij publiceerde vijf boeken, waarvan twee Amazon-bestsellers, en schrijft wekelijks over AI, blockchain en de organisatorische gevolgen van deep tech. Zijn blogs bereikten inmiddels meer dan twee miljoen lezers.
Ook deze maand mag ik weer met een aantal organisaties werken rondom AI.
Ik zie dat het vaak wordt gepresenteerd als een versneller. In de praktijk zie ik iets anders gebeuren. Niet omdat de technologie tekortschiet, maar omdat ze genadeloos zichtbaar maakt waar organisaties al langer mee worstelen. AI versnelt niet alleen processen, maar ook onzekerheid over vakmanschap, sturing en leiderschap. Juist daarom schuurt het.
Wat me opvalt in gesprekken met leiders en teams, is hoe snel initiatief verschuift. Mensen die eerder aan de zijlijn stonden, bouwen nu in korte tijd prototypes, analyses en plannen. Dat brengt energie en creativiteit. Tegelijk schuift ervaring vaak pas laat aan. Het resultaat oogt overtuigend, maar mist soms stevigheid. Besluiten worden genomen op basis van werk dat technisch klopt, maar inhoudelijk nog niet is doorleefd. Organisaties die hier volwassen mee omgaan, laten ruimte voor verkenning, maar zorgen dat ervaring het laatste woord heeft. Niet om te vertragen, maar om richting te geven.
Diezelfde spanning zie ik terug in hoe AI wordt georganiseerd. Sommige bedrijven trekken alles naar het centrum uit angst voor risico’s. Andere laten iedereen vrij experimenteren in de hoop op versnelling. Beide bewegingen slaan door. Te veel controle smoort initiatief. Te veel vrijheid leidt tot versnippering en vermoeidheid. Wat overeind blijft, is de behoefte aan heldere kaders die beschermen waar het moet en ruimte laten waar het kan.
Ook het idee dat AI automatisch leidt tot plattere organisaties blijkt hardnekkig en misleidend. Formeel verdwijnen lagen, maar in de praktijk neemt de druk toe. Managers krijgen meer mensen onder zich, terwijl het werk complexer wordt en afstemming belangrijker. Zonder herontwerp van hoe werk loopt, ontstaat geen wendbaarheid maar overbelasting. AI werkt hier alleen als het administratieve ballast wegneemt, zodat leiders weer kunnen doen waar ze het verschil maken: richting geven, afwegen en verbinden.
Snelheid speelt in al deze gesprekken een hoofdrol. Iedereen wil vooruit. Tools zijn snel inzetbaar, maar organisaties veranderen niet op commando. Besluiten worden genomen, pilots gestart, maar de uitvoering stokt omdat processen, prikkels en gedrag niet meebewegen. Wat ontbreekt is vaak het besef dat sommige onderdelen juist vertraging nodig hebben. Reflectie, eigenaarschap en het uitdiepen van ideeën laten zich niet forceren. Wat te makkelijk ontstaat, wordt zelden gedragen.
Ten slotte zie ik hoe verandering wordt gestuurd. Soms met stevige top-down druk, soms met het idee dat het vanzelf wel groeit. In het eerste geval ontstaat compliance zonder overtuiging. In het tweede geval losse initiatieven zonder schaal. De beweging komt pas echt op gang wanneer leiders zelf zichtbaar leren, richting geven zonder dicht te regelen en succes niet afmeten aan gebruik, maar aan effect.
Wat deze spanningen gemeen hebben, is dat ze niet verdwijnen. AI dwingt leiders om expliciet te worden over keuzes die lang impliciet waren. Over kwaliteit. Over tempo. En over vertrouwen in mensen.
Organisaties die hier sterk uitkomen, zoeken geen definitieve antwoorden. Ze bouwen het vermogen om bij te sturen terwijl alles in beweging is. Ze zien spanning niet als iets dat opgelost moet worden, maar als een signaal dat richting geeft.
AI vraagt geen perfecte strategie. Het vraagt leiders die het ongemak durven verdragen en daar niet voor weglopen. Precies daar ontstaat vooruitgang.
Jan Scheele werkt dertien jaar op het snijvlak van deep tech, strategie en leiderschap. Als keynote spreker en dagvoorzitter maakt hij technologie tastbaar voor boardrooms, directieteams en grote podia, zonder de complexiteit te versimpelen of te verbergen achter buzzwords.
Zijn achtergrond ligt in het bouwen. Als CEO van een technologie scale-up, oprichter van meerdere techbedrijven en organisator van meer dan vijftig TED-events wereldwijd zag hij van dichtbij hoe technologische keuzes doorwerken in strategie, governance en cultuur. Vanuit zijn betrokkenheid bij het World Economic Forum en de BCNL Foundation kijkt hij daarbij niet alleen naar wat technisch mogelijk is, maar ook naar wat bestuurlijk houdbaar en maatschappelijk wenselijk is.
Hij publiceerde vijf boeken, waarvan twee Amazon-bestsellers, en schrijft wekelijks over AI, blockchain en de organisatorische gevolgen van deep tech. Zijn blogs bereikten inmiddels meer dan twee miljoen lezers.
In de jaren vijftig waarschuwde Herbert Simon, Nobelprijswinnaar en een van de grondleggers van besluitvormingstheorie, voor iets wat destijds futuristisch klonk. Hij stelde dat organisaties steeds vaker beslissingen zouden nemen op basis van systemen en modellen, niet alleen op basis van menselijk oordeel. Wat hem vooral bezighield was niet de technologie zelf, maar wat dat zou doen met verantwoordelijkheid. Wie neemt een besluit als het denkwerk elders plaatsvindt?
Die vraag voelt vandaag opvallend actueel.
Steeds meer AI-systemen doen aanbevelingen, prioriteren opties of handelen zelfs zelfstandig. Niet spectaculair, maar stil en efficiënt. Een algoritme dat sollicitaties voorselecteert. Een systeem dat bepaalt welke klant aandacht krijgt. Bovendien Een model dat een risico inschat en daarmee de richting van een besluit al vastlegt. Op papier neemt de leider nog steeds het besluit. In de praktijk is de keuze vaak al technisch voorgevormd.
Dat is geen probleem op zich. Het wordt pas spannend als we blijven doen alsof besluitvorming nog hetzelfde werkt als tien jaar geleden.
Veel beslissingen voelen menselijk, maar zijn dat steeds minder. Ze worden beïnvloed door datasets, aannames in modellen en optimalisaties die ooit logisch leken, maar zelden opnieuw ter discussie worden gesteld. De leider komt later in het proces binnen, vaak op het moment dat er nog maar weinig echte keuzevrijheid over is.
Wat hier gebeurt, is geen machtsgreep van technologie. Het is een verschuiving van het beslissingsmoment.
Een eenvoudig denkkader helpt dit te begrijpen: het verschil tussen keuze en kader. Leiders blijven keuzes maken, maar technologie bepaalt steeds vaker het kader waarbinnen die keuzes plaatsvinden. Wat zichtbaar is, wat meetelt, wat logisch voelt. Wie dat kader niet begrijpt of bevraagt, neemt formeel besluiten, maar stuurt inhoudelijk minder dan gedacht.
De positieve kant is duidelijk. Systemen kunnen patronen zien die mensen missen. Ze brengen consistentie, snelheid en schaal. Ze helpen om bias te verminderen en om complexe situaties hanteerbaar te maken. Veel organisaties zouden zonder deze ondersteuning simpelweg vastlopen.
De keerzijde is subtieler. Als het kader verschuift zonder expliciete aandacht, verschuift ook verantwoordelijkheid. Niet omdat leiders die willen afstaan, maar omdat ze zich verplaatsen naar een ander niveau. Van inhoud naar proces. Van afweging naar validatie. Dat voelt veilig, maar het is ook een verschraling van leiderschap.
Het risico zit niet in foute beslissingen, maar in onzichtbare aannames. Wie bepaalt welke data relevant is? Welke waarden zijn ingebouwd in optimalisaties? Wat gebeurt er als efficiëntie structureel zwaarder weegt dan menselijk oordeel? Dit zijn geen technische vragen. Dit zijn leiderschapsvragen.
Wat deze tijd vraagt, is geen afwijzing van technologie, maar hernieuwde aandacht voor waar besluiten echt ontstaan. Niet alleen aan het einde van de keten, maar aan het begin. Daar waar systemen worden ontworpen, gekozen en ingepast in organisaties.
Herbert Simon had gelijk, al kon hij de schaal niet voorzien. Technologie neemt geen beslissingen. Maar ze verandert wel wie ze neemt, en vooral wanneer dat gebeurt.
De vraag voor leiders is daarom niet of ze controle houden, maar of ze nog weten waar die controle begint en eindigt. Dat inzicht bepaalt of technologie een versterking wordt van leiderschap, of een stille verschuiving waar pas later woorden voor worden gevonden.
Jan Scheele werkt dertien jaar op het snijvlak van deep tech, strategie en leiderschap. Als keynote spreker en dagvoorzitter maakt hij technologie tastbaar voor boardrooms, directieteams en grote podia, zonder de complexiteit te versimpelen of te verbergen achter buzzwords.
Zijn achtergrond ligt in het bouwen. Als CEO van een technologie scale-up, oprichter van meerdere techbedrijven en organisator van meer dan vijftig TED-events wereldwijd zag hij van dichtbij hoe technologische keuzes doorwerken in strategie, governance en cultuur. Vanuit zijn betrokkenheid bij het World Economic Forum en de BCNL Foundation kijkt hij daarbij niet alleen naar wat technisch mogelijk is, maar ook naar wat bestuurlijk houdbaar en maatschappelijk wenselijk is.
Hij publiceerde vijf boeken, waarvan twee Amazon-bestsellers, en schrijft wekelijks over AI, blockchain en de organisatorische gevolgen van deep tech. Zijn blogs bereikten inmiddels meer dan twee miljoen lezers.
Ik merk de laatste tijd een specifiek patroon in werk dat ik ontvang. Bijna elke dag. Van klanten, medewerkers, zakenpartners… bijna iedereen. Het ziet er verzorgd uit, leest soepel en lijkt af. Toch blijft na het lezen een ongemakkelijk gevoel hangen: dit helpt me niet verder. Het voelt niet fout, maar leeg.
Dat gevoel blijkt opvallend goed te corresponderen met wat onderzoekers inmiddels “workslop” noemen. In recent onderzoek onder ruim duizend fulltime werknemers zegt 40% dat zij in de afgelopen maand AI-gegenereerd werk ontvingen dat professioneel oogt, maar inhoudelijk weinig bijdraagt. Respondenten schatten dat ongeveer 15% van alle werkcontent die zij ontvangen hieronder valt. Dat is geen randverschijnsel meer, dat is structureel.
Veel output, weinig effect
De impact zit vooral in wat erna komt. Gemiddeld kost het bijna twee uur om één geval van workslop te herstellen: herlezen, interpreteren, corrigeren, opnieuw maken. Omgerekend betekent dat een verborgen kostenpost van ongeveer 186 dollar per medewerker per maand. Voor een organisatie van 10.000 mensen loopt dat richting $9 miljoen per jaar aan verloren productiviteit. Tegelijk geeft 95% van de organisaties aan geen meetbare opbrengst te zien van hun investeringen in generatieve AI. Veel output, weinig effect.
Wat mij persoonlijk het meest raakt, zijn de relationele gevolgen. Meer dan de helft van de ontvangers voelt irritatie, ruim een derde verwarring en één op de vijf zelfs ergernis. Bijna de helft beoordeelt collega’s die workslop sturen als minder creatief, minder capabel of minder betrouwbaar. Een derde wil liever niet meer met die persoon samenwerken. Dat is geen soft sentiment, dat is schade aan samenwerking.
Het interessante is dat het onderzoek een duidelijk onderscheid laat zien in houding. Mensen die AI gebruiken om hun eigen denken te versterken, leveren aantoonbaar betere output dan mensen die AI gebruiken om denken te vermijden. Het probleem is dus niet AI, maar cognitieve uitbesteding zonder eigenaarschap.
Workslop is in mijn optiek geen technologische bijwerking, maar een kwaliteitscrisis die door AI zichtbaar en schaalbaar is geworden. Wie AI inzet zonder duidelijke normen, verplaatst werk in plaats van het te verminderen. Wie AI gebruikt als denkpartner, wint juist scherpte. De vraag is niet of we AI gebruiken. De vraag is of we nog herkennen wanneer werk echt iets bijdraagt.
Jan Scheele werkt dertien jaar op het snijvlak van deep tech, strategie en leiderschap. Als keynote spreker en dagvoorzitter maakt hij technologie tastbaar voor boardrooms, directieteams en grote podia, zonder de complexiteit te versimpelen of te verbergen achter buzzwords.
Zijn achtergrond ligt in het bouwen. Als CEO van een technologie scale-up, oprichter van meerdere techbedrijven en organisator van meer dan vijftig TED-events wereldwijd zag hij van dichtbij hoe technologische keuzes doorwerken in strategie, governance en cultuur. Vanuit zijn betrokkenheid bij het World Economic Forum en de BCNL Foundation kijkt hij daarbij niet alleen naar wat technisch mogelijk is, maar ook naar wat bestuurlijk houdbaar en maatschappelijk wenselijk is.
Hij publiceerde vijf boeken, waarvan twee Amazon-bestsellers, en schrijft wekelijks over AI, blockchain en de organisatorische gevolgen van deep tech. Zijn blogs bereikten inmiddels meer dan twee miljoen lezers.
Voorspellen wat er in 2026 gaat gebeuren met AI voelt een beetje als proberen een foto te maken van een raket terwijl hij al opstijgt. Nog voor je scherp kunt stellen, is het landschap alweer veranderd. Nieuwe modellen, verrassende toepassingen, onverwachte reacties… het tempo is duizelingwekkend. De AI-wereld beweegt sneller dan ooit. Wat vandaag baanbrekend lijkt, voelt morgen alweer verouderd. Toch zijn er een paar grote trendlijnen te zien voor het komende jaar. In dit artikel duik ik er op in.
Nog maar een paar jaar geleden gebruikten we AI vooral voor grapjes en gemak: een sinterklaasgedicht hier, een recept daar. Het voelde toen voor mij nog als speelgoed; slim maar oppervlakkig. Nu, eind 2025, is dat kinderspel voorbij. AI schrijft niet alleen meer teksten voor mij, het stuurt complete marketingcampagnes aan, analyseert voor mij cryptomarkten, bedenkt communicatiestrategieën en voorspelt klantgedrag. Wat begon als een handige assistent is uitgegroeid tot een onmisbare collega, een strategische sparringpartner en soms zelfs beslisser.
De verschuiving is in mijn optiek zo snel gegaan, dat we nauwelijks hebben beseft hoe fundamenteel het digitaal is veranderd. Dat is ook echt een keerzijde van die razendsnelle integratie; we hebben nauwelijks tijd gehad om stil te staan bij de gevolgen. We gebruiken AI alsof het er altijd al was, maar ondertussen verandert het hoe we denken, leren en zelfs vertrouwen.
Voor veel mensen voelt het als magie, voor anderen als dreiging. Bedrijven ontdekken de kracht van automatisering, maar worstelen met transparantie. Creatievelingen benutten nieuwe tools, maar vragen zich af wat er nog écht van henzelf is. Terwijl overheden nog zoeken naar kaders, ontwikkelt de technologie zich mega snel verder.
De afgelopen weken heb ik talloze rapporten gelezen over alle AI-ontwikkelingen en -voorspellingen, ter voorbereiding van dit artikel. Normaal kan ik veel ontwikkelingen rondom tech adoptie namelijk prachtig onderbouwen met cijfers uit onderzoeken. Maar daar schuurt het; je ziet soms echt tientallen procenten verschil bij redelijk vergelijkbare onderwerpen, in verschillende rapporten. Ook rapporten van partijen die ik zelf redelijk serieus neem.
Neem de adoptie van AI door bedrijven in de EU; de EU zelf zit dan op 13%, IBM al op meer dan 40%. Maar ook als je wat scherper doorleest over de precieze vraagstelling, regio en onderzoeksperiode, dan zie je echt grote verschillen. Vaak wordt al geschemerd dat meer dan 60% van de consumenten AI gebruikt, maar dat blijken vooral Amerikanen; in Nederland is het rond de 35%. Dat laatste is wel 10% meer dan vorig jaar.
Ook vorig jaar mocht ik een poging doen om een trendartikel te schrijven over AI. Dan is het altijd leuk om even terug te kijken in mijn glazen bol: is dat wat ik verwachtte gebeurd?
Even terugblikken
Tech-bubbels zijn van alle tijden en naar mijn idee ook goed. Goed om in korte tijd grote bekendheid te krijgen, om veel kapitaal er naar toe te laten vloeien en om veel enthousiasme te creëren bij bedrijven, bouwers en andere bijdragers. Eerdere tech-bubbels barstten en brachten uiteindelijk juist de infrastructuur en bedrijven van de toekomst voort.
Echt bij elke keynote die ik nu over AI geef, krijg ik standaard de vraag wanneer de AI-bubbel nu gaat barsten. Heel eerlijk? Met de ongekende kapitaalstroom die nu naar alle AI-ontwikkelingen gaat, verwachtte ik het afgelopen jaar dat hij al zou gaan barsten. Net als met crypto en ‘dot com’. We hebben het namelijk niet meer over miljoenen of miljarden, maar triljoenen die het afgelopen jaar in AI zijn geïnvesteerd.
Zuck spent five years and $70 billion dollars to build a business that loses $4.4 billion/year to create only $470 million in revenue. So bad you can’t give it away, I guess.” – Greg Linden, voormalig data scientist bij Microsoft
Nu zat ik fout. De bubbel is niet gebarsten, maar het is wel onderwerp van gesprek. OpenAI-topman Sam Altman noemde het recent “overduidelijk dat we in een bubbel-fase zitten” en gaf toe dat investeerders momenteel te enthousiast zijn over AI. Zijn oud-collega Eric Schmidt, voormalig CEO van Google, ziet dat anders. Volgens hem is er geen sprake van een bubbel, maar van een fundamentele herstructurering van de industrie die niet te vergelijken is met eerdere hypes.
Het tech-magazine Wired stelde dat “AI misschien wel de bubbel is die alle andere doet verbleken”. Onderzoekers van de Yale School of Management waarschuwen voor een scenario waarin de massale investeringen in AI-infrastructuur zichzelf niet terugverdienen. Dit terwijl het hoofd van de Amerikaanse centrale bank (de FED) weer aangeeft dat hij denkt dat we niet in een bubbel zitten, omdat de AI-bedrijven juist goed geld verdienen.
Allemaal aan de agents… of niet?
‘AI-agents’ was voor velen echt dé AI-trend van 2025. Ik heb het afgelopen jaar ook hele grote ontwikkelingen op dit gebied gezien. Mede doordat je inmiddels via talloze platformen (onder andere OpenAI, Google, Salesforce, N8N) heel simpel je eigen digitale assistenten kunt bouwen. Geen ingewikkelde code, maar kant-en-klare bouwblokken die je koppelt aan je systemen. Ik verbaas me echt steeds weer over de kinderlijke eenvoud waarmee dit kan. Grote techbedrijven verkopen het dan ook als de volgende productiviteitsgolf: niet langer zelf alle taken doen, maar samenwerken met slimme software die meedenkt en meewerkt.
Je ziet dit ook bij allerlei Nederlandse bedrijven vorm krijgen.
PostNL test met SuperTracy, een multi-agent-systeem dat klanten helpt hun pakketten beter te volgen.
PwC Nederland gebruikt agenten die repetitieve taken automatiseren en medewerkers wekelijks tijd besparen.
ING experimenteert met agent-achtige AI voor snellere transactiemonitoring en klantbeheer.
De agent-hype is nog steeds echt heel groot, maar hun kracht zit juist in het praktische: saaie, repetatieve taken overnemen. Dit is echt een kwestie van eerst zelf zien, dan geloven. In begin was ik sceptisch, maar sinds ik een paar agents zelf heb ontwikkeld, ga ik echt helemaal door het geluid als ik zie wat ze allemaal automatisch voor mij doen.
We zijn hier in mijn optiek nog maar net begonnen; als je ziet met wat voor snelheid agents momenteel worden ontwikkeld door bedrijven, dan kunnen we niet eens voorzien wat we hier het komende jaar allemaal van kunnen verwachten.
Veelbesproken zijn de agents, die voor jou bijvoorbeeld online gaan winkelen. Voor velen nog toekomstmuziek, maar Shopify noemt dit inmiddels al “the biggest shift in technology since the internet”. Ze meldden dat het verkeer van AI-tools naar haar online winkels sinds januari van dit jaar zeven keer zo groot is geworden. En dat aankopen die aan AI-gestuurde zoekopdrachten worden toegeschreven, elf keer zo groot zijn geworden.
De technologie praat eindelijk terug!
Een van mijn favoriete trends het afgelopen jaar, is voice AI. Ik gebruik AI meestal via een tekstterminal, maar steeds vaker praat ik er gewoon mee. Voor mij is het echt een strategische sparringpartner geworden: ik voer er dagelijks gesprekken mee over ideeën, strategie en keuzes. Zakelijk en privé. Voice AI maakt dat niet alleen makkelijker, maar ook een stuk natuurlijker en menselijker.
De technologie ontwikkelt zich momenteel ook echt razendsnel. We zien systemen die context vasthouden, emoties herkennen en antwoorden met een stem die nauwelijks nog van menselijk te onderscheiden is. Een mooi onderzoek liet zien dat 1 op de 50 personen een AI-stem van een echte stem kon onderscheiden.
De nieuwe modellen reageren binnen milliseconden, kunnen doorpraten terwijl jij praat en schakelen moeiteloos tussen talen. Ook deze trend is nog maar net begonnen; er staan het komende jaar nog heel veel meer gave (door-) ontwikkelingen te wachten, zoals ook het gebruik van Voice AI in slimme brillen.
De sterke samensmelting
Een trend die ook helemaal explodeert, is de samenwerking van AI met andere technologieën. Vooral die met robotica zorgde het afgelopen jaar voor allerlei mega gave ontwikkelingen op dat gebied. Want waar robots vroeger domme uitvoerders waren die alleen konden doen waarvoor ze waren geprogrammeerd, hebben ze dankzij AI een vorm van begrip gekregen.
The age of generalist robotics is here. – Jensen Huang, CEO NVIDIA
Je ziet de nieuwe generaties robots die het afgelopen jaar zijn gelanceerd waarnemen, redeneren en beslissen. Ze leren van hun omgeving, passen zich direct aan en voeren taken uit waarvoor ze nooit zijn getraind. Google DeepMind demonstreerde dit met Gemini Robotics, een model dat robots laat leren zoals mensen dat doen: door te observeren en te improviseren.
Wat kunnen we in het komende jaar allemaal voor gave AI ontwikkelingen verwachten? Een paar trends die ik voorzie:
1. Nog sterkere symbiose
Ik blijf het echt fascinerend vinden om te zien hoe verschillend wij als consumenten reageren op technologie. En vooral op de impact daarvan qua privacy. Dat WhatsApp volgens onderzoek 26 gevaarlijke toestemmingen eist op jouw telefoon? Daar heb ik nog nooit iemand over gehoord. Maar toen we voor de corona-melder app 2 veilige toestemmingen moesten goedkeuren, stond het hele land in brand.
Dit zie ik nu ook bij AI gebeuren. Andere technologieën zoals crypto zouden de ‘oceanen laten koken’. En veel bedrijven krijgen in Nederland geen aansluiting meer op het stroomnet, omdat het zo overbelast is. Maar ondertussen zitten we wel doodleuk massaal afbeeldingen en video’s met AI te genereren, omdat het zo leuk is. Ja, de onderzoeken lopen redelijk uiteen qua intensiteit. Maar de gemiddelde consensus komt toch wel neer op het feit dat je evenveel stroom gebruikt als het 10x opladen van een telefoon, voor het genereren van éé afbeelding met AI. Voor een video zit dat op ongeveer 180x.
Ook bij het privacy-vraagstuk rondom het gebruik van AI zie ik dit. Ja, steeds meer organisaties zijn AI-geletterd en laten werknemers enkel in beveiligde, ommuurde chatbots werken, zoals Copilot. Toch blijkt uit recent onderzoek dat 77% van de werknemers nog steeds vertrouwelijke data in openbare chatbots gooit. Minder dan een kwart van de organisaties die in Nederland AI gebruikt, heeft dan ook pas het personeel opgeleid in AI-geletterdheid.
Wearables
Ik hoop dat we het komende jaar hier wel echt stappen gaan zetten, om de (data-)privacy veel beter te gaan waarborgen, want de volgende grote trend komt alweer om de hoek: AI-apparaten die we op het lichaam dragen. Van brillen tot ringen, banden tot amuletten; AI-gestuurde wearables zijn echt in. Een markt waar nu al tientallen miljarden in om gaat en die ik in het komende jaar verder zie exploderen.
Vooral vanwege de aankondiging van een aantal hele gave apparaten. Ook al kunnen we een AI-bril van Apple waarschijnlijk pas in 2027 verwachten, de Snapchat AI-AR-bril Spectacles kan je volgend jaar bestellen, zodat je een persoonlijke voetbalcoach of pianoleraar naast je hebt, die je gelijk een persoonlijke les geeft.
Meta loopt momenteel mega voor met haar eigen brillenlijn die ze in samenwerking met Rayban en Oakley heeft ontwikkeld. Maar ook andere grootheden zoals Google en het Chinese Xiaomi lanceren naar verwachting komend jaar een eigen bril. Slimme horloges zoals de Apple Watch en slimme ringen zoals de Oura Ring waren al mega populair. Het wachten is op een apparaat dat op een andere plek wordt gedragen op het lichaam.
De eerste poging, de Humane AI pin, is aan een snelle dood gestorven. Maar er wordt veel verwacht van het AI-apparaat wat OpenAI ontwikkelt in samenwerking met de designer van de iPhone; John Ive. Dit is volgens OpenAI oprichter Altman “a chance to do the biggest thing we’ve ever done as a company here”. Volgens een lek, is het plan nu om een soort iPod Shuffle om de nek te ontwikkelen, bomvol speciale camera’s en microfoons. Dit zijn tot nu toe de bekende aankondigingen en gelekte plannen, die mij al ontzettend enthousiast maken over wat er op de markt komt komend jaar. Om maar niet te spreken over alle onverwachte lanceringen die er wellicht ook nog op stapel staan.
2. AI-superapps
In Azië zijn superapps inmiddels echt een niet te missen infrastructuur in de maatschappij. Als ik in China ben, maak ik gebruik van WeChat. Dat heeft ruim 1,3 miljard maandelijkse gebruikers die via één app chatten, betalen, taxi’s bestellen, hun waterrekening voldoen en zelfs een doktersafspraak plannen. Laatst gebruikte ik in Singapore weer op allerlei manieren Grab, wat in Zuidoost-Azië dagelijks meer dan 10 miljoen ritten en bestellingen verwerkt.
De Chinese concurrent van WeChat, Alipay, heeft al meer dan 700 miljoen actieve gebruikers die via AI-aanbevelingen leningen afsluiten of verzekeringen kopen. Net als veel apps die wij in het westen gebruiken, is de logica hierachter heel eenvoudig; gemak wint. Je kan in één app je hele digitale leven organiseren.
Jarenlang hebben Westerse tech-bedrijven geprobeerd om ook een eigen superapp te lanceren. Ik zie nu een interessante andere wending: chatbots die dat model kopiëren, met AI als lijm. OpenAI integreert Spotify, Zillow en directe betalingen in één chatbot. Daarnaast lanceerde het ook al speciale oplossingen om te winkelen, leren en te coderen. Google lanceerde al honderden AI-modellen en verbindt die steeds meer met elkaar in één handige en simpele interface.
Het is een logische evolutie van allemaal losse apps naar een digitale butler die jouw voorkeuren kent en voor jou talloze handelingen uitvoert, eventueel automatisch en doorlopend. Het komende jaar verwacht ik heel, heel veel meer ontwikkelingen op dit vlak. Nog meer functies en bundelingen van functies, tot één superapp.
3. Vlijmscherpe vakidioten
De eerste generatie AI-modellen waren alleseters. ChatGPT, Gemini en Claude konden schrijven, coderen en adviseren over vrijwel elk onderwerp. Maar de nieuwe golf AI’s die we in het komende jaar kunnen verwachten, is naar mijn idee juist hypergespecialiseerd. In plaats van één groot wereldmodel, zien we nu vakidioten: systemen die alleen werken voor specifieke sectoren of functies.
In de financiële wereld is dat bijvoorbeeld al realiteit. Ik heb verschillende financiële klanten die werken met BloombergGPT. Een model dat werd getraind op 363 miljard tokens vol marktdata en jargon. Het helpt analisten met risicomodellen, sentimentanalyse en rapportage.
Een advocatenkantoor op de Zuidas waar ik laatst voor werkte, liep op te scheppen over hoe de meeste collega’s al dagelijks gebruik maken van Harvey: een juridische AI. Die is in samenwerking met OpenAI gemaakt en getraind op basis van tientallen miljoenen juridische documenten. Artsen experimenteren weer met medische modellen zoals Med-PaLM 2. Op artsenexamens scoorde dat meer dan 85% en het ondersteunt diagnoses in echte klinische contexten. Microsoft lanceerde Copilot for Security dat incidenten prioriteert. En GitHub’s Copilot schrijft inmiddels een flink deel van de wereldwijde codebasis.
Domeinkennis wint het hier in mijn optiek echt van omvang. Deze AI’s zijn niet per se groter, vaak ook absoluut niet, maar wel slimmer en beter werkend binnen hun niche. Ze draaien soms ‘on-premise‘ (volledig draaiende op de servers van een bedrijf, dus niet in de cloud bij Big Tech) voor privacy en voeren steeds vaker taken direct uit in plaats van alleen advies te geven. Het komende jaar verwacht ik dat dit ecosysteem van specialistische digitale experts nog veel verder gaat uitbreiden.
4. Beating the bias
Even al die Studio Ghibli’s en Barbies daar gelaten, ik zie dat AI ook echt op een kantelpunt staat van vertrouwen. Want waar het in het begin vooral bewondering opriep, wekt het nu vooral wantrouwen. Op veel vlakken. Volgens onderzoek van EY maakt 42% van de Nederlandse werknemers zich bijvoorbeeld zorgen over wat AI betekent voor hun baan.
Maar ik hoor ook steeds meer negatieve geluiden over wat Steven Bannon zo mooi ‘flood the zone with shit’ noemt. De stortvloed van content die nu op het web komt, gegenereerd door AI. Op social media bijvoorbeeld is al bijna de helft van alle content door AI gegenereerd, en op platforms als Medium en Quora steeg dat aandeel van 1,8 naar 37 procent in twee jaar. Het gevolg: een digitale wereld waarin het onderscheid tussen echt en nep vervaagt. En gebruikers zich afvragen of ze nog mensen volgen of slechts de schaduwen van algoritmes. Ook alle racistische en deepfake rommel zorgt voor een plaag op kanalen als TikTok.
Die verwarring strekt zich inmiddels uit tot iets intiemers: onze geestelijke gezondheid. Een groeiend aantal mensen, waaronder ondergetekende, praat met AI over zijn/haar gevoelens. In de VS heeft 72% van de tieners ooit een AI-chatbot als metgezel gebruikt en één op de acht deed dat voor emotionele steun. Maar studies laten zien dat één op de vijf reacties van zulke chatbots als ‘onveilig’ wordt beoordeeld.
In extreme gevallen leidde dat zelfs tot rechtszaken het afgelopen jaar. Zoals die van ouders van een zestienjarige die door een chatbot werd aangemoedigd tot zelfmoord. De grens tussen hulp en gevaar blijkt dun, zeker als systemen emoties vooral bevestigen in plaats van begrijpen.
Scepsis rondom AI
Niet alleen in de persoonlijke sfeer, maar ook steeds breder bij organisaties zie ik scepsis ontstaan rondom AI en vooral de schaduwkant ervan. Elke organisatie waar ik voor mag spreken heeft het uitgebreid over alle gave, handige toepassingen die ze al gebruiken en voorzien. Maar dat gesprek wordt tegenwoordig ook standaard gevolgd door het benoemen van de schaduwkanten van AI. Hallucinaties, onjuiste antwoorden en misleidende outputs zijn zo’n probleem geworden dat verzekeraars inmiddels al nadenken over ‘AI hallucination insurance’.
Een laatste bias die AI het komende jaar echt moet voorkomen is wat Cory Doctorow zo mooi ‘enshittification’ noemt. Want het lijkt er steeds meer op dat AI hetzelfde lot tegemoet gaat als eerdere techplatforms, die volgens hem steeds slechter werden voor gebruikers zodra winst belangrijker werd dan waarde. De term verwijst naar het proces waarin bedrijven eerst gebruikers lokken met kwaliteit, daarna waarde doorschuiven naar adverteerders en uiteindelijk alles naar zichzelf trekken. AI-bedrijven zouden door hun hoge kosten, beperkte concurrentie en gesloten modellen extra kwetsbaar zijn voor dit patroon. De vraag is niet of, maar wanneer kunstmatige intelligentie dezelfde neerwaartse spiraal ingaat die al zoveel digitale diensten heeft uitgehold.
Concluderend moet AI het komende jaar echt laten zien dat het meer kan dan voorspellen en produceren. Het moet bewijzen dat het betrouwbaar, ethisch en transparant kan zijn. Alleen dan wint het niet alleen marktaandeel, maar ook iets veel belangrijkers: vertrouwen. Dat is voor mij ook echt een van de hoofdtrends voor het komende jaar. AI gaat in de breedte werken aan eerherstel en wint het vertrouwen weer terug. Zodat het nog breder, nog sneller en nog uitgebreider zal worden ingezet door organisaties en consumenten.
5. Hoe blijven we de machine voeden?
Move fast, break things. Het credo van tech-ondernemers in San Fransisco was een tijdje minder gebruikt, na alle schandelen rondom bijvoorbeeld Facebook. Maar rondom de AI-modellen lijkt hij weer springlevend. Niet alleen qua functies, maar ook hoe de modellen zijn getraind. Want de vergaring van alle data die wordt gebruikt om de modellen te trainen, roept veel vragen op. De modellen zijn gevoed met triljoenen datapunten, vaak gescraped van het web. Hele boeken en veel copyright-gevoelig materiaal, wat nog regelmatig zorgt voor zeer negatieve reacties en ook al honderden rechtszaken wereldwijd.
AI heeft nu eenmaal datahonger, maar de voorraad raakt op. Waar grote taalmodellen ooit konden smullen van miljarden openbare teksten en beelden, beginnen de bekende databronnen leeg te raken. Elon Musk noemde het treffend: de beschikbare menselijke kennis is ‘exhausted‘.
We zien inmiddels wat Microsoft Research het doorbreken van de AI-‘datamuur’ noemt: het punt waarop organisaties hun voorraad hoogwaardige, ethisch verkregen trainingsgegevens hebben uitgeput. Bedrijven als Google, Meta en Microsoft kopen daarom steeds actiever data in bij partijen zoals Defined.ai, waar woorden nog maar duizendsten van een dollar kosten en een beeld één à twee dollar. Of hele archieven data, van partijen als Reddit, Time Magazine en grote uitgevers als Wiley en Axel SPriger.
Synthetische data
Een andere oplossing die ik steeds vaker voorbij zie komen, is synthetische data: kunstmatig gegenereerde datasets die echte data moeten aanvullen of vervangen. Volgens Gartner zal tegen 2025 al zo’n 50% van de data in AI-projecten synthetisch zijn. Volgens verschillende voorspellingen kan dat tegen 2030 al richting de 100% gaan. Een markt die groeit met ruim 60% per jaar en volgens onderzoek ook echt cruciaal is voor de verdere doorontwikkeling van de markt.
Het zal zeker belangrijk zijn, maar ik weet niet of het zo positief is voor de ontwikkelingen van AI. Verschillende onderzoeken van IBM, Wired en het Ada Lovelace Institute wijzen op grote risico’s. Zo kunnen modellen die vooral op synthetische data zijn getraind last krijgen van ‘model collaps’: een vicieuze cirkel waarin AI’s steeds slechter worden doordat ze leren van hun eigen fouten. Uit onderzoek blijkt daarnaast dat synthetische datasets vaak minder divers en representatief zijn, waardoor bias juist toeneemt.
Het komende jaar zal deze trend veel scherper worden belicht. Want de toekomst van AI wordt duidelijk steeds kunstmatiger, maar hoe meer we de werkelijkheid namaken, hoe groter het risico dat we haar verliezen. We gaan zien of synthetische data AI slimmer maakt, of juist gevangen houdt in een digitale bubbel van eigen makelij. De uitdaging wordt om authentieke menselijke stemmen hoorbaar te houden tussen de algoritmische ruis, terwijl we leren samenwerken met technologie zonder onze eigen intuïtie en emotionele intelligentie te verliezen.
Het gaat nu om hoe we AI inzetten
AI heeft in het afgelopen jaar bewezen dat het onze wereld kan versnellen, versimpelen en verrijken. Maar juist nu die technologie op volle snelheid doordendert, komt er een nieuw soort verantwoordelijkheid bij. Niet langer gaat het alleen om wát AI kan, maar vooral om hóe we het inzetten. Of we kiezen voor gemak boven begrip, voor winst boven waarde, voor ruis boven betekenis. Het komende jaar wordt het jaar waarin we niet alleen de grenzen van technologie testen, maar ook die van onszelf: kunnen we slim blijven in een wereld die steeds slimmer wordt? De toekomst van AI hangt niet af van de kracht van de machines, maar van de wijsheid van de mensen die ermee werken.
Jan Scheele werkt dertien jaar op het snijvlak van deep tech, strategie en leiderschap. Als keynote spreker en dagvoorzitter maakt hij technologie tastbaar voor boardrooms, directieteams en grote podia, zonder de complexiteit te versimpelen of te verbergen achter buzzwords.
Zijn achtergrond ligt in het bouwen. Als CEO van een technologie scale-up, oprichter van meerdere techbedrijven en organisator van meer dan vijftig TED-events wereldwijd zag hij van dichtbij hoe technologische keuzes doorwerken in strategie, governance en cultuur. Vanuit zijn betrokkenheid bij het World Economic Forum en de BCNL Foundation kijkt hij daarbij niet alleen naar wat technisch mogelijk is, maar ook naar wat bestuurlijk houdbaar en maatschappelijk wenselijk is.
Hij publiceerde vijf boeken, waarvan twee Amazon-bestsellers, en schrijft wekelijks over AI, blockchain en de organisatorische gevolgen van deep tech. Zijn blogs bereikten inmiddels meer dan twee miljoen lezers.