Hoe bereid je (in een ‘age of AI’) je voor op een baan die nog niet bestaat?

Right now, if you’re a creative and you feel like AI is coming for your job, I think that says something about your skill set right now.” – Jon Youshaei

Het gaat snel. Té snel, volgens steeds meer mensen. Tijdens de vele lezingen/trainingen die ik momenteel over AI mag geven, is naast verbazing vooral ook een stukje angst vaak zichtbaar aanwezig.  AI-tools schrijven en vertalen teksten, bouwen websites en schrijven strategieen in seconden. De vraag rijst: waar blijft de mens in dit verhaal? Of concreter: hoe bereid je je voor op werk waarvan de functietitel nog niet eens bestaat?

We groeien in mijn optiek niet meer lineair van opleiding naar vaste baan tot pensioen, maar bewegen in een eindeloze cyclus van leren en werken. Dat vraagt iets nieuws van ons: een combinatie van menselijke en technologische vaardigheden die wendbaar zijn in een snel veranderende arbeidsmarkt.

AI zal banen vervangen, maar ook totaal nieuwe creëren. Geen sciencefiction, maar échte functies waarin menselijke kwaliteiten onmisbaar blijven. Een compilatie van wat ik voorbij heb zien komen in een aantal achtergrondartikelen:

AI-auditor – controleert of AI-besluiten kloppen en uitlegbaar zijn.

Ethisch coördinator – stelt verantwoorde grenzen voor wat AI mag doen.

Escalatie-officier – stapt in als empathie nodig is, bijvoorbeeld bij klachten of onderwijs.

AI-integrator – vertaalt AI naar werkende toepassingen in bedrijven.

AI-plumber – spoort fouten op in complexe AI-systemen.

Trainer – voedt AI met de juiste interne data.

Personality-designer – geeft AI een herkenbare toon of merkstem.

Assessor – kiest welke AI-tool het beste werkt en wanneer menselijke controle nodig is.

Story-designer – stuurt AI aan om iets te maken dat écht raakt.

HR-designer – ontwerpt beleid en cultuur met behulp van AI, maar met menselijk gevoel.

Ben jij al eens gaan nadenken wat je over 5-10 jaar doet in een ‘age of AI’?

admin

Jan Scheele werkt dertien jaar op het snijvlak van deep tech, strategie en leiderschap. Als keynote spreker en dagvoorzitter maakt hij technologie tastbaar voor boardrooms, directieteams en grote podia, zonder de complexiteit te versimpelen of te verbergen achter buzzwords.

Zijn achtergrond ligt in het bouwen. Als CEO van een technologie scale-up, oprichter van meerdere techbedrijven en organisator van meer dan vijftig TED-events wereldwijd zag hij van dichtbij hoe technologische keuzes doorwerken in strategie, governance en cultuur. Vanuit zijn betrokkenheid bij het World Economic Forum en de BCNL Foundation kijkt hij daarbij niet alleen naar wat technisch mogelijk is, maar ook naar wat bestuurlijk houdbaar en maatschappelijk wenselijk is.

Hij publiceerde vijf boeken, waarvan twee Amazon-bestsellers, en schrijft wekelijks over AI, blockchain en de organisatorische gevolgen van deep tech. Zijn blogs bereikten inmiddels meer dan twee miljoen lezers.

Vibe coding in opmars: met één simpele prompt een app bouwen

Vibe coding in opmars: met één simpele prompt een app bouwen

Met een simpele spraakopdracht een app laten bouwen. Zonder kennis van software-ontwikkeling. Vibe coding maakt het met AI mogelijk en maakt een snelle opmars. In dit artikel duik ik in op deze nieuwe trend.

Op mijn 13e begon ik met het ontwikkelen van websites. Eerst voor de kerk, daarna voor bedrijven van ouders van vrienden. Ik vond het echt onwijs leuk om urenlang te bouwen en steeds meer te leren over hoe je online zaken kon maken. Zoeken naar de oplossing voor een bug, het ontwerpen van een gaaf design in Dreamweaver en het verder doorontwikkelen. Toen ik mijn digital agency (inmiddels verkocht) tijdens mijn studie verder uitbouwde, nam ik developers aan en stopte ik met ontwikkelen. Maar de passie ervoor bleef altijd overeind.

Doordat ik door mijn verschillende huidige bedrijven echt in de meest uiteenlopende sectoren mag werken, heb ik elke maand wel weer een nieuw idee voor een platform of app. Maar door tijdsgebrek laat ik die ideeën altijd op de plank liggen. Laatst zat ik met een vriend op het terras, die mij uitdaagde om eens een idee van zo’n app aan hem te vertellen. Wat ik niet wist, was dat hij de AI-app Cursor liet meeluisteren. Die ging vervolgens een kwartier lang een plan uitwerken om het te bouwen. Een half uur later was mijn app gebouwd. Perfect en helemaal klaar om te gebruiken? Nee. Was ik stomverbaasd? Ja!

Vibe coding: ingrijpende verandering in software-ontwikkeling

Ik denk dat vibe coding echt de meest ingrijpende verandering in software-ontwikkeling van de afgelopen jaren is. Voor mijn gevoel gaat het verder dan een AI die wat code uitspuugt: het is een compleet nieuwe manier van denken, werken en bouwen. Plotseling hoeft niemand meer honderden regels syntaxis uit het hoofd te leren of eindeloos API-documentatie te doorploegen; je beschrijft simpelweg wat je wil en de AI maakt de rest.

Vibe coding basically refers to using generative AI not just to assist with coding, but to generate the entire code for an app. – Noah Giansiracusa van  Bentley University

Daardoor kan echt iedereen zonder klassieke code-achtergrond, of je nu ontwerper of ondernemer, data-analist of onderwijzer bent, in no time werkende prototypes neerzetten. Vibe coding is in korte tijd zo groot geworden omdat de bekende AI’s (zoals GPT-4, Claude en diverse code-specialisten) nu verrassend snel, goedkoop en accuraat werken. Waar AI in de beginfase leuk was voor sinterklaasgedichten en recepten, zie ik nu teams van vrienden die dagelijks hun core-product inkoppen via prompts.

AI is just the biggest unlock. So we’re going to have many more people who are going to be able to build apps. – Sherry Jiang, co-founder en CEO van Peek

Cijfers over het gebruik zijn er niet echt. Al schemeren de grote techbedrijven wel publiekelijk met cijfers over hoeveel van hun code al door AI is gegenereerd (en niet door de menselijke developers). Bij Microsoft is dat 30%, Google 25% en bij Meta moet dat binnen 2 jaar 100% zijn.

Tools voor vibe coding

Nadat mijn vriend mij helemaal ‘verslaafd’ had gemaakt aan vibe coding, slaap ik een uur minder per nacht en ben ik me hier volledig in gaan verdiepen. Niet alleen in hoe het werkt, maar ook door meerdere ideeën voor apps, die ik al jaren op de plank had liggen, nu gelijk te laten bouwen. Voor mijn projecten kies ik meestal eerst een van deze bekendere tools:

  • GitHub Copilot (binnen VS Code)
  • Replit Agent (in de browser)
  • Cursor AI (desktop met chat en project-brede context)
  • Lovable.dev (voor complete full-stack apps uit één prompt)
  • Windsurf (de voormalige Codeium, die zelf taken uitvoert in jouw projectmap).

GPT lanceert binnenkort de Codex functie, die dit ook helemaal mogelijk moet gaan maken.

Elk heeft zijn in mijn optiek echt zijn eigen kracht:

  • Copilot is lekker geïntegreerd in de Microsoft office suite
  • Replit werkt zonder installatie
  • Cursor geeft je uitgebreide uitleg (wat ik stiekem ook wel fijn en leuk vind)
  • Lovable is echt by far de snelste.

Ga er vooral een paar proberen, kijk welke interface je het prettigst vindt en bouw daar je workflow omheen.

Hoe kun je vibe coding inzetten?

Stel: je wil een inschrijfformulier voor je nieuwsbrief. Je opent je gekozen tool en typt: “Maak een contactformulier met velden voor naam, e-mail en bericht.” Direct verschijnt de HTML, CSS en het stukje JavaScript. Je klikt op run, ziet het formulier en zegt: “Voeg validatie toe aan het e-mailveld” of “Maak de verzendknop groen en zet er een icoontje bij”. De AI past de code aan en jij ziet meteen het resultaat. Zo werk je door en bouw je stap voor stap extra functionaliteiten in, zonder dat je ooit een console vol foutmeldingen hoeft te lezen. Tenzij je natuurlijk wil debuggen.

Naast mijn eigen ervaringen, staat het internet bomvol gave voorbeelden van mensen die net als ik met vibe coding helemaal door het geluid gaan. Nederlander Pieter Levels bouwde bijvoorbeeld in tien minuten een simpel spelletje met Cursor, volledig via natuurlijke taal. Hij zei: “Ik typ wat ik wil zien, en de AI flanst het in elkaar. De magie is dat ik verder kan zonder te sleutelen aan syntax.”

Vibe coded! It’s a lot of fun. – Charlie Shrem

Charlie Shrem, een vroege Bitcoin-pionier, experimenteert met een AI-gestuurde ‘faucet’ op 21million.com. Hij zette in één weekend een werkende interface neer. De teams van de meest bekende startup incubator Y Combinator laten AI nu al 95% van hun MVP’s schrijven, waardoor ze in één dag live feedback kunnen verzamelen. Studenten van de TU Delft Informatica-opleiding gebruikten Replit Agent om zich volledig te richten op data-analyse en UX, in plaats van de codetaal. Ze kwamen in een week met een werkende datavisualisatietool.

Niet alles is rozengeur en maneschijn

Uiteraard is niet alles rozengeur en maneschijn. Net als bij algemeen gebruik van modellen als GPT, verwacht ik dat er flinke ‘technische schuld’ ontstaat als je AI-gegenereerde code niet goed reviewt, maar klakkeloos overneemt, lanceert en gebruikt. Bovendien moet je de verantwoordelijkheid niet laten liggen en gelijk pro-actief insteken: wie is aansprakelijk als er een beveiligingslek insluipt? Organisaties waarvan ik weet dat ze aan het vibe coden zijn, bouwen daarom al extra lagen security audits in. Hallicunaties blijven een ding.

Er speelt in mijn optiek ook een licentievraag: veel AI-modellen zijn getraind op open-source code en het is nog niet helemaal duidelijk of gegenereerde fragmenten licentie-problemen kunnen veroorzaken. Net als wat we nu zien met gegenereerde afbeeldingen en muziek, waar talloze rechtszaken om worden gevoerd.

Tot slot zie ik dat junior developers soms te afhankelijk worden van vibe coding, waardoor ze de kans missen om zelf algoritmisch te leren denken. Iets wat ik als zeer belangrijk ervaarde toen ik zelf nog codeerde.

Vibe coding gaat de programmeur niet vervangen

Uiteraard lees ik alweer op veel fora en in opinie-artikelen dat we over 2 jaar geen enkele menselijke programmeur meer hebben. Maar ik geloof niet dat vibe coding simpelweg de programmeur vervangt. Ik denk dat de rol juist verschuift. Ik verwacht dat developers straks minder tijd kwijt zijn aan routinetaken en veel meer aan architectuur, beveiliging en innovatie.

Zelf ben ik nu al nieuwsgierig naar Agentic AI hierbinnen: systemen die niet alleen code genereren, maar zelfstandig hele trajecten doorlopen. Van code review tot deployment. Voor mij is vibe coding geen hype, maar echt een krachtige uitbreiding van de toolbox van iedere moderne developer. De wereld van software-ontwikkeling is volop in beweging en ik kan niet wachten om verder te bouwen aan mijn eigen apps!

admin

Jan Scheele werkt dertien jaar op het snijvlak van deep tech, strategie en leiderschap. Als keynote spreker en dagvoorzitter maakt hij technologie tastbaar voor boardrooms, directieteams en grote podia, zonder de complexiteit te versimpelen of te verbergen achter buzzwords.

Zijn achtergrond ligt in het bouwen. Als CEO van een technologie scale-up, oprichter van meerdere techbedrijven en organisator van meer dan vijftig TED-events wereldwijd zag hij van dichtbij hoe technologische keuzes doorwerken in strategie, governance en cultuur. Vanuit zijn betrokkenheid bij het World Economic Forum en de BCNL Foundation kijkt hij daarbij niet alleen naar wat technisch mogelijk is, maar ook naar wat bestuurlijk houdbaar en maatschappelijk wenselijk is.

Hij publiceerde vijf boeken, waarvan twee Amazon-bestsellers, en schrijft wekelijks over AI, blockchain en de organisatorische gevolgen van deep tech. Zijn blogs bereikten inmiddels meer dan twee miljoen lezers.

Virtuele influencers: hype, hulp of het einde van echtheid?

Virtuele influencers: hype, hulp of het einde van echtheid?

Stel je voor: een influencer die nooit een slechte dag heeft, nooit een grens overschrijdt en altijd precies zegt wat jij als merk wil horen. Klinkt ideaal? Voor steeds meer bedrijven is het dat ook. Virtuele influencers – digitale personages aangedreven door AI en CGI – winnen razendsnel terrein in de marketingwereld. En met reden. Ze zijn altijd beschikbaar, perfect schaalbaar en 100% controleerbaar. Maar hoe echt moet iets zijn om invloed te hebben?

De cijfers liegen niet (maar ze zijn wel virtueel)

Uit een recent benchmarkrapport blijkt dat bijna 60% van de marketeers al werkt met AI-influencers, en bijna de helft is daar enthousiast over. Niet zo gek: virtuele influencers behalen gemiddeld een hogere betrokkenheid (2,84%) dan hun menselijke tegenhangers (1,72%). En consumenten lijken eraan te wennen. In de VS liet 29% van de shoppers zich al verleiden tot een aankoop op basis van aanbevelingen van een digitale persoonlijkheid. Vooral Gen Z en Millennials vallen massaal voor de zorgvuldig gecreëerde charme van figuren als Lil Miquela, Lu do Magalu en Noonoouri.

Perfecte avatars voor perfecte campagnes

Hun aantrekkingskracht? Volledige controle. Geen schandalen, geen planningsproblemen, geen creatieve afwijkingen. Grote merken als Calvin Klein, Dior, IKEA en TUI zetten deze digitale personages in om campagnes te voeren die net zo consistent zijn als een goed afgestelde algoritme. En ze zijn opvallend effectief. In de mode- en reisindustrie zetten bedrijven als H&M en Qatar Airways ze in om kosten te besparen, diversiteit te tonen en snel in te spelen op trends.

Maar is het ook geloofwaardig?

Daar wringt de schoen. Want hoewel veel consumenten de content aantrekkelijk vinden, twijfelen ze aan de echtheid. Volgens een studie van YouTube vinden veel gebruikers virtuele influencers “authentiek nep”. En dat is een probleem. Zeker in een tijd waarin consumenten meer waarde hechten aan transparantie en echtheid. Onderzoek van Northeastern University wijst zelfs uit dat als een virtuele influencer betrokken is bij een teleurstellende aankoop, het merk meer reputatieschade lijdt dan bij een menselijke influencer.

Een nieuwe definitie van ‘echt’?

Toch is het te kort door de bocht om ze als gimmick af te doen. De psychologische afstand tussen echt en virtueel vervaagt. Onderzoek uit Psychology & Marketing laat zien dat mensen virtuele influencers op veel vlakken als even geloofwaardig ervaren als echte mensen – zolang ze maar “menselijk genoeg” zijn vormgegeven. De sleutel ligt dus niet in perfectie, maar in geloofwaardige imperfectie. Een emotionele frons. Een spontane lach. Of een goed verteld verhaal.

De ethische haken en ogen

Tegelijk doemen serieuze vragen op. Wat betekent dit voor echte creatieven, modellen, fotografen? Hoe zit het met het auteursrecht van je digitale dubbelganger? En hoe voorkom je dat diversiteit een decorstuk wordt in plaats van een diep verankerde waarde? De introductie van Kami, de eerste virtuele influencer met het syndroom van Down, laat zien dat AI ook kan bijdragen aan inclusie. Maar dan moet het wel écht zijn – niet alleen visueel, maar ook in wie de stem achter de avatar bepaalt.

Virtuele influencers zijn geen voorbijgaande hype. Ze zijn hier om te blijven – en ze veranderen hoe we marketing, media en misschien zelfs identiteit begrijpen. Toch moeten merken oppassen voor de valkuil van gemak. Een perfect geprogrammeerde avatar kan veel, maar vervangt niet het gevoel dat iemand je écht begrijpt. De toekomst ligt waarschijnlijk in hybride vormen: waarin het menselijke en het virtuele samenkomen. Waar techniek versterkt, maar niet vervangt.

Dus ja, de influencer van de toekomst is misschien deels van pixels gemaakt. Maar de klik die telt, blijft van vlees en bloed.

admin

Jan Scheele werkt dertien jaar op het snijvlak van deep tech, strategie en leiderschap. Als keynote spreker en dagvoorzitter maakt hij technologie tastbaar voor boardrooms, directieteams en grote podia, zonder de complexiteit te versimpelen of te verbergen achter buzzwords.

Zijn achtergrond ligt in het bouwen. Als CEO van een technologie scale-up, oprichter van meerdere techbedrijven en organisator van meer dan vijftig TED-events wereldwijd zag hij van dichtbij hoe technologische keuzes doorwerken in strategie, governance en cultuur. Vanuit zijn betrokkenheid bij het World Economic Forum en de BCNL Foundation kijkt hij daarbij niet alleen naar wat technisch mogelijk is, maar ook naar wat bestuurlijk houdbaar en maatschappelijk wenselijk is.

Hij publiceerde vijf boeken, waarvan twee Amazon-bestsellers, en schrijft wekelijks over AI, blockchain en de organisatorische gevolgen van deep tech. Zijn blogs bereikten inmiddels meer dan twee miljoen lezers.

Zitten we wel te wachten op AI-boeken, -kunst, -film en -muziek? Wat moeten we met effortless art

Zitten we wel te wachten op AI-boeken, -kunst, -film en -muziek? Wat moeten we met effortless art

Een film op maat met jezelf in de hoofdrol, een schilderij van je dromen in vijf seconden of een boek over rouw dat een machine voor je schrijft. Kunst is nog nooit zo makkelijk  en zo ongemakkelijk  geweest. Kunstenaars, platforms en techbedrijven experimenteren volop met GenAI. Maar bij mij knaagt de vraag steeds meer: willen mensen wel geraakt worden door iets dat geen ziel heeft? Mag ‘moeiteloos’ ook gewoon mooi zijn? In dit artikel duik ik er op in.

Op de kunstbeurs TEFAF in Maastricht hoorde ik laatst iemand bij een schilderij zeggen: “Er zit zoveel ziel en zaligheid in”. Het schilderij van Picasso is met veel aandacht, moeite en levenservaring gemaakt. Het is niet perfect, maar het voelt wel écht. Die ervaring missen veel mensen bij AI-kunst. Een algoritme kent geen jeugdherinneringen, geen verdriet, geen blik op een Frans lelievijver zoals Monet. Dus, zeggen critici, kan het ook geen echte kunst maken.

Maar de praktijk is weerbarstig. Uit een onderzoek van MIT (2023) blijkt dat 40% van de mensen AI-gegenereerde kunst niet van menselijke kunst kan onderscheiden. Platformen zoals ArtStation, Spotify en TikTok staan vol met razend populaire AI-content. Soms bewust, soms stiekem. Blijkbaar doet de oorsprong er niet altijd toe, zolang het resultaat aanspreekt lijkt het.

Samenwerken met de machine

Gelukkig is het niet óf mens, óf machine. Steeds meer artiesten zien AI niet als bedreiging, maar als creatieve partner. De Nederlandse DJ Reinier Zonneveld experimenteert live met AI in zijn techno-sets. Samen met een algoritme maakt hij beats, laat hij loops terugkomen en improviseert hij met wat het publiek doet. Het resultaat: een hybride set die niet door één brein is gemaakt, maar door twee! Ook kunstenaars zoals Sougwen Chung gebruiken AI als penseel. Ze trainen modellen op hun eigen werk, waardoor de machine een verlengde wordt van hun stijl. Geen vervanging dus, maar een nieuw soort samenwerking.

Er wordt vaak gesproken over de gevaren van AI in kunst. Maar er zijn in mijn optiek ook genoeg overtuigende argumenten ‘in favour’. AI kan de toegang tot creativiteit verbreden. Je hoeft geen dure kunstacademie te hebben gevolgd of een platenlabel achter je te hebben staan om te maken wat in je hoofd zit. Met behulp van generatieve AI kunnen mensen hun ideeën vormgeven in tekst, beeld of geluid, ook als ze technisch niet onderlegd zijn. In die zin democratiseert AI het maken van kunst: het verlaagt de drempel voor expressie.

Boeken schrijven

De afgelopen jaren heb ik bijvoorbeeld drie boeken gepubliceerd, waarvan er een vier jaar aan onderzoek heeft gekost. Inmiddels ben ik alweer bezig met een nieuw boek en ik krijg dan ook wel vaak het verwijt ‘dat laat je zeker door AI schrijven’. Dat is deels waar. Zelf gebruik ik AI voor het doen van onderzoek voor mijn nieuwe boeken. Ik laat analyses doen van tientallen andere boeken, onderzoeken en discussiefora als Reddit, wat ongekend interessante inzichten levert voor het schrijven. Iets wat ik wel lekker zelf blijf doen, omdat ik het te leuk vind en mijzelf ook echt versterkt in mijn dagelijkse werk als spreker/coach.

Bovendien kan AI juist de creativiteit van mensen stimuleren in plaats van afremmen. Kunstenaars die samenwerken met AI worden soms geconfronteerd met onverwachte patronen, invallen of vervormingen die ze zelf nooit bedacht zouden hebben. Dat kan leiden tot een frisse blik op hun eigen werk. Oxford-hoogleraar Marcus du Sautoy ziet dit als een kans:

AI kan ons wakker schudden uit onze automatische routines. Mensen gedragen zich vaak als machines, AI helpt ons daar juist uit.

Je zou dus kunnen zeggen dat het algoritme niet de vervanger van de kunstenaar is, maar een speelse tegenspeler die je uitdaagt om verder te denken.

Begin nieuw hoofdstuk?

Dan is er nog een filosofischer argument dat ik laatst las: kunst is altijd een spiegel van haar tijd. De industriële revolutie bracht realisme én abstractie. De komst van fotografie bevrijdde schilders van het idee dat ze de werkelijkheid moesten weergeven. Nu, in een tijd waarin technologie ons dagelijks leven bepaalt (kijk even naar de telefoon, het internet), is het logisch dat ook kunst zich daartoe verhoudt. Misschien is het gebruik van AI in kunst niet het einde van een tijdperk, maar juist het begin van een nieuw hoofdstuk.

Zorgen

Toch heb ik ook wel serieuze zorgen over deze ontwikkelingen. Een van de grootste is de vervaging van de grens tussen echt en nep. In de Netflix-documentaire What Jennifer Did werden bewerkte foto’s gebruikt waarvan kijkers dachten dat ze authentiek waren. De documentairemaker gaf toe dat delen van de afbeelding zijn aangepast, maar bleef vaag over hoe en met welke middelen. Dit roept in mijn optiek niet alleen vragen op over esthetiek, maar ook over ethiek. Als beelden niet meer representeren wat echt was, maar wat plausibel lijkt, ondermijn je het vertrouwen in visuele informatie. Zeker in journalistieke of documentaire context.

Daarnaast zie ik ook echt het risico van artistieke middelmatigheid. Een soort bias. AI werkt op basis van bestaande data: wat populair is, wat herkenbaar is, wat gemiddeld werkt. Daarmee is het bij uitstek geschikt om te bevestigen wat we al kennen. In plaats van verrassen, choqueert het zelden is mijn ervaring. Filmcriticus Gwilym Mumford waarschuwt dan ook voor een toekomst van op maat gemaakte AI-films waarin je zelf de hoofdrol speelt in een romantische komedie met Marilyn Monroe:

Een film die alleen jouw wensen volgt, verrast je nooit.

Het zijn juist de onverwachte keuzes van een kunstenaar die kunst gelaagd en betekenisvol maken. Iets dat AI (nog) niet lijkt te beheersen.

Er speelt ook echt een economische kant mee in het verhaal. Want steeds vaker gebruiken filmstudio’s, uitgevers en platforms AI om kosten te besparen. Posters voor grote series worden niet meer ontworpen door illustratoren, maar gegenereerd in Midjourney. Tyler Perry zette zijn $800 miljoen studio-uitbreiding stop toen hij Sora zag:

Jobs are going to be lost.

Zelfs muziekplatforms experimenteren met AI-DJ’s. Voor Reinier Zonneveld is AI een speelkameraad op het podium, maar voor veel artiesten betekent diezelfde technologie een dreiging voor hun broodwinning. De vraag is: wie profiteert van moeiteloze kunst? Wie verdwijnt er geruisloos door?

De kernvragen die we ons naar mijn mening moeten gaan stellen zijn; wat zoeken we in een schilderij, een roman, een film? Troost, verwondering, herkenning? Maakt het dan uit of dat gevoel wordt opgeroepen door een mens of een machine? Misschien wel, misschien niet.

Het probleem ontstaat als we ophouden met vragen stellen

Want zolang AI een tool blijft en niet het verhaal zélf, blijft er ruimte voor menselijke expressie. Het probleem ontstaat pas als we ophouden met vragen stellen. Als we zonder nadenken aannemen dat goed genoeg ook echt goed is. Als we gemak verwarren met betekenis.

‘Effortless art’ klinkt aantrekkelijk. Kunst zonder zweet, zonder worsteling, zonder tijdsdruk. Maar juist in die moeite, in het niet-weten, in het zoeken zit de ziel waar die vrouw op de TEFAF over sprak. Als kunst niets meer van de maker vraagt, vraagt het dan nog iets van de kijker? Misschien zit de waarde van kunst juist niet in hoe snel het gemaakt wordt, maar in hoeveel tijd het in ons blijft hangen.

admin

Jan Scheele werkt dertien jaar op het snijvlak van deep tech, strategie en leiderschap. Als keynote spreker en dagvoorzitter maakt hij technologie tastbaar voor boardrooms, directieteams en grote podia, zonder de complexiteit te versimpelen of te verbergen achter buzzwords.

Zijn achtergrond ligt in het bouwen. Als CEO van een technologie scale-up, oprichter van meerdere techbedrijven en organisator van meer dan vijftig TED-events wereldwijd zag hij van dichtbij hoe technologische keuzes doorwerken in strategie, governance en cultuur. Vanuit zijn betrokkenheid bij het World Economic Forum en de BCNL Foundation kijkt hij daarbij niet alleen naar wat technisch mogelijk is, maar ook naar wat bestuurlijk houdbaar en maatschappelijk wenselijk is.

Hij publiceerde vijf boeken, waarvan twee Amazon-bestsellers, en schrijft wekelijks over AI, blockchain en de organisatorische gevolgen van deep tech. Zijn blogs bereikten inmiddels meer dan twee miljoen lezers.

Do we really want AI books, art, film, and music? Effortless art is on the rise

Do we really want AI books, art, film, and music? Effortless art is on the rise

A bespoke film starring you in the leading role, a dream painting in five seconds, or a book about grief that a machine writes for you. Art has never been so easy — and so awkward. Artists, platforms, and tech companies are experimenting enthusiastically with generative AI. Yet I keep returning to the same nagging question: do people really want to be moved by something that has no soul? Can “effortless” simply be beautiful? In this article, I dive into that question.

At the TEFAF art fair in Maastricht, I recently overheard someone standing before a painting say, “There’s so much soul and passion in it.” The Picasso on display was created with great care, effort, and life experience. It isn’t perfect, but it really feels alive. That sense of authenticity is missing from much AI art. An algorithm has no childhood memories, no sorrow, no Monet-like view of a French lily pond. So, critics say, it can’t produce real art.

But reality is more complicated. A 2023 MIT study found that 40% of people cannot distinguish AI-generated art from human-made work. Platforms like ArtStation, Spotify, and TikTok are overflowing with wildly popular AI content — sometimes openly, sometimes covertly. Apparently, origin doesn’t always matter; if the result resonates, that’s all that counts.

Collaborating with the machine
 Fortunately, it’s not a choice between human or machine. More and more creatives see AI not as a threat, but as a creative partner. Dutch DJ Reinier Zonneveld experiments live with AI in his techno sets. Together with an algorithm, he builds beats, reintroduces loops, and improvises based on audience energy. The result is a hybrid set born of two collaborators rather than one! Artists like Sougwen Chung use AI as a brush: they train models on their own work so the machine becomes an extension of their style. It’s not replacement — it’s a new form of collaboration.

People often talk about AI’s dangers in art. But I believe there are equally compelling arguments in its favor. AI can broaden access to creativity. You don’t need an expensive art school education or a record label to make what’s in your head. With generative AI, anyone can shape ideas into text, image, or sound — even without technical expertise. In that sense, AI democratizes art by lowering the barrier to expression.

Writing books
 Over the past few years I’ve published three books, one of which took four years of research. I’m already working on a new one, and I often get the accusation: “You must be letting AI write it for you.” Partly true. I do use AI to conduct research for my books — running analyses on dozens of other books, studies, and discussion forums like Reddit, yielding incredibly interesting insights for my writing. But I still enjoy the actual writing too much — and it genuinely enriches my daily work as a speaker and coach.

Moreover, AI can stimulate rather than stifle human creativity. Artists collaborating with AI are sometimes confronted with unexpected patterns, ideas, or distortions they never would have conceived on their own. That can lead to fresh perspectives on their own work. Oxford professor Marcus du Sautoy sees it as an opportunity:

“AI can jolt us awake from our automatic routines. People often behave like machines, and AI helps pull us out of that.”

You could say the algorithm isn’t there to replace the artist, but to serve as a playful antagonist, challenging you to think further.

Starting a new chapter?
 Then there’s the more philosophical argument I read recently: art has always been a mirror of its time. The Industrial Revolution brought both realism and abstraction. The advent of photography freed painters from the obligation to depict reality. Now, in an era dominated by technology in our daily lives (just look at your phone or the internet), it makes sense that art would respond in kind. Perhaps using AI in art is not the end of an era, but the start of a new chapter.

Concerns
 Still, I have serious concerns about these developments. One of the greatest is the blurring line between real and fake. In the Netflix documentary What Jennifer Did, altered photos were presented as authentic. The filmmaker admitted parts of the images had been manipulated but remained vague about how and with what tools. In my view, this raises not only aesthetic questions but ethical ones. If images no longer represent what was real but only what seems plausible, we undermine trust in visual information — especially in journalistic or documentary contexts.

I also see a real risk of artistic mediocrity — a kind of bias. AI relies on existing data: what’s popular, recognizable, and average. It’s ideally suited to reinforce what we already know. In my experience, it rarely surprises or shocks. Film critic Gwilym Mumford warns of a future of tailor-made AI films in which you star in a romantic comedy with Marilyn Monroe:

“A film that only follows your wishes will never surprise you.”

It’s the unexpected choices of an artist that give art its layers and meaning — something AI doesn’t yet master.

There’s also the economic angle: increasingly, film studios, publishers, and platforms use AI to cut costs. Posters for major series are no longer designed by illustrators but generated in Midjourney. Tyler Perry halted his $800 million studio expansion when he saw Sora:

“Jobs are going to be lost.”

Even music platforms are experimenting with AI DJs. For Reinier Zonneveld, AI is a playful partner on stage — but for many artists, the same technology threatens their livelihood. The question is: who truly benefits from effortless art? And who is quietly displaced?

The core questions we need to start asking ourselves are: what do we seek in a painting, a novel, a film? Solace, wonder, recognition? Does it matter whether that feeling is evoked by a human or a machine? Maybe it does — maybe it doesn’t.

The problem begins when we stop questioning
 Because as long as AI remains a tool and not the story itself, there is room for human expression. The problem only arises when we stop asking questions — when we mindlessly accept that “good enough” is truly good. When we confuse ease with meaning.

“Effortless art” sounds appealing: art without sweat, without struggle, without time pressure. Yet it’s precisely in the effort, the not-knowing, the searching, that the soul resides — the soul that woman at TEFAF spoke of. If art demands nothing of its maker, what does it ask of its audience? Perhaps the value of art lies not in how quickly it’s created, but in how long it lingers within us.

admin

Jan Scheele werkt dertien jaar op het snijvlak van deep tech, strategie en leiderschap. Als keynote spreker en dagvoorzitter maakt hij technologie tastbaar voor boardrooms, directieteams en grote podia, zonder de complexiteit te versimpelen of te verbergen achter buzzwords.

Zijn achtergrond ligt in het bouwen. Als CEO van een technologie scale-up, oprichter van meerdere techbedrijven en organisator van meer dan vijftig TED-events wereldwijd zag hij van dichtbij hoe technologische keuzes doorwerken in strategie, governance en cultuur. Vanuit zijn betrokkenheid bij het World Economic Forum en de BCNL Foundation kijkt hij daarbij niet alleen naar wat technisch mogelijk is, maar ook naar wat bestuurlijk houdbaar en maatschappelijk wenselijk is.

Hij publiceerde vijf boeken, waarvan twee Amazon-bestsellers, en schrijft wekelijks over AI, blockchain en de organisatorische gevolgen van deep tech. Zijn blogs bereikten inmiddels meer dan twee miljoen lezers.

7 maatschappelijke AI-uitdagingen (en mijn oplossingen) waar we nú aan moeten werken

In Nederland hoeven we niet naar futuristische dystopieën te kijken om de gevaren van AI te begrijpen. Denk bijvoorbeeld aan de Toeslagenaffaire. Een algoritme van de Belastingdienst beoordeelde automatisch wie verdacht was van fraude. Geen transparantie, geen menselijke controle – alleen een systeem dat duizenden ouders onterecht wegzette als fraudeurs. Het gevolg: levens verwoest, banen kwijt, kinderen uit huis geplaatst. En niemand die écht aansprakelijk was. In de AI-high waar veel professionals en organisaties in zitten, vergeten we in mijn optiek om ook echt scherp te gaan kijken naar de minder positieve kanten.

Elke nieuwe technologie begint met blinde vlekken

We zien het elke keer weer bij de meeste nieuwe technologieën. De opkomst van internet leidde tot explosies in criminaliteit en desinformatie. De Bitcoin-revolutie begon met idealen, maar trok ook hackers en witwassers aan. Social media begonnen als platforms om te verbinden, maar werden snel wapens in informatie-oorlogen. En denk aan drones: ooit hobby-technologie, nu inzetbaar voor spionage of zelfs aanvallen. Wetgeving? Die liep altijd achter.

We zien nu dezelfde reflexen bij AI: overheden die worstelen met regels, bedrijven die winst voorrang geven, criminelen die de boel slim misbruiken en een samenleving die pas echt wakker schrikt als het misgaat. Ja, ik word elke dag enthousiaster over alle mogelijkheden en hoe ze mij versterken als professional. Maar ik merk elke keer weer als ik ergens spreek over AI en het publiek erover vraag; niemand houdt de ontwikkelingen meer bij; zo veel en zo snel. Laat staan dat mensen rustig nadenken over de impact ervan. Wat AI kan, maar vooral: wat het doet en wat dat met ons doet.

Zeven AI-gevaren die al geen toekomstmuziek meer zijn

De discussie over AI-risico’s richt zich in mijn optiek vaak op de bekende thema’s: hallucinerende chatbots, privacyproblemen of AI’s die data lekken. Toegegeven, die problemen zijn reëel, maar ze worden inmiddels heel actief en succesvol aangepakt. Hallucinaties nemen flink af door betere modellen / redeneringsvermogen en privacy wordt beter gewaarborgd via afgesloten omgevingen zoals Microsoft Copilot.

Maar in mijn optiek zitten de échte risico’s veel dieper. Niet in wat AI zegt, maar in wat het stilletjes doet. Wie wordt gevolgd, beoordeeld of uitgesloten door een algoritme? Welke beslissingen nemen machines al zonder dat we het doorhebben? Wat betekent dat voor onze rechtsstaat, arbeidsmarkt of mentale gezondheid?

Laatst mocht ik voor een overheidsorganisatie de hosanna- en hypeverhalen thuis laten en het personeel volledig bang maken met gefundeerde argumenten over waar ik zie dat er nog te weinig gebeurt om de uitwassen van AI tegen te gaan. Mijn top 7:

1. AI maakt desinformatie geloofwaardiger en gevaarlijker

Nepnieuws is niet nieuw, maar AI maakt het overtuigender én schaalbaarder. Tijdens de verkiezingen in Nederland in 2023 gingen deepfake-video’s van politici viraal. Een gemanipuleerde toespraak die nooit had plaatsgevonden werd duizenden keren gedeeld – vaak als ‘bewijs’. Ze zijn zo goed, dat ze ook door de controlefilters van de socialmedia-platformen heen komen.

Volgens onderzoek heeft 1 op de 3 Nederlanders moeite om echt van nep te onderscheiden. Onderzoek van de Universiteit Leiden toont aan dat mensen die meer gebruikmaken van social media en vatbaar zijn voor complottheorieën, beter zijn in het herkennen van deepfakes, wat suggereert dat anderen mogelijk kwetsbaarder zijn voor misinformatie.​

2. Van slimme stad naar controlestaat

Smart city-technologieën, zoals gezichtsherkenning en gedragsanalyse, bieden efficiëntie maar brengen ook risico’s met zich mee voor privacy en burgerrechten. In Amsterdam wordt geëxperimenteerd met slimme camera’s die afval op straat herkennen. En met algoritmen die tijdens de coronapandemie detecteerden of mensen voldoende afstand hielden. Hoewel deze technologieën bijdragen aan stadsbeheer, roepen ze ook vragen op over toezicht en privacy.​

3. Algoritmes kunnen systematisch discrimineren zonder dat we het doorhebben

Het gebruik van AI in sollicitatieprocedures kan leiden tot onbedoelde discriminatie. Het College voor de Rechten van de Mens stelt dat werkgevers verantwoordelijk blijven voor de uitkomsten van algoritmes en zich niet kunnen verschuilen achter technologie als er sprake is van ongelijke behandeling. Een onderzoek onder 896 Nederlandse werkgevers toonde aan dat het bewustzijn over de risico’s van algoritmische discriminatie laag is.

4. AI beslist soms dodelijk, zonder mens erbij

De ontwikkeling van autonome wapensystemen, ook wel ‘killer robots‘ genoemd, roept ethische en juridische vragen op. Volgens de Adviesraad Internationale Vraagstukken (AIV) en de Commissie van Advies inzake Volkenrechtelijke Vraagstukken (CAVV) moet Nederland zich nadrukkelijker bezighouden met de regulering van deze systemen. Er is bezorgdheid dat zonder duidelijke regelgeving de inzet van dergelijke wapensystemen kan leiden tot onvoorspelbare en mogelijk catastrofale gevolgen.

5. AI kan worden gemanipuleerd door een sticker op een stopbord

AI-systemen in het verkeer, zoals die voor zelfrijdende auto’s, zijn kwetsbaar voor manipulatie. In een onderzoek werden kleine stickers op stopborden geplakt, waardoor zelfrijdende auto’s deze verkeersborden niet meer als zodanig herkenden en ze interpreteerden als borden met een snelheidsbeperking. Hoewel dit specifieke voorbeeld niet uit Nederland komt, benadrukt het de noodzaak voor robuuste beveiligingsmaatregelen en voortdurende evaluatie van AI-systemen in kritieke infrastructuren.

6. AI verandert werk en niet iedereen wordt meegenomen

De opkomst van AI heeft aanzienlijke gevolgen voor de Nederlandse arbeidsmarkt. Volgens een rapport van PwC is meer dan 44% van de banen in Nederland in hoge of zeer hoge mate blootgesteld aan generatieve AI, zoals ChatGPT. Dit betekent dat bijna de helft van de huidige functies significant kan veranderen door de inzet van AI-technologieën.  

De veranderingen op de arbeidsmarkt hebben bredere maatschappelijke implicaties. Een rapport van de APG benadrukt dat het verlies van werk door AI kan leiden tot sociale uitsluiting en een gevoel van verlies van controle over het eigen leven. Zonder adequate ondersteuning en omscholingsmogelijkheden kunnen getroffen werknemers moeite hebben om opnieuw werk te vinden, wat kan resulteren in economische ongelijkheid en sociale spanningen.

7. AI beïnvloedt gedrag zonder dat je het merkt

AI-algoritmes op platforms zoals TikTok kunnen gebruikers onbewust sturen richting content die schadelijk is voor hun mentale gezondheid. Amnesty International waarschuwt dat de ‘Voor Jou’-pagina van TikTok na enkele uren gebruik een overweldigende hoeveelheid content toont die gerelateerd is aan mentale gezondheidsproblemen, wat zorgwekkende implicaties heeft voor jongeren. Dit onderstreept de noodzaak voor transparantie en regulering van algoritmische aanbevelingssystemen op social media-platforms.​

Wat kunnen we eraan doen?

Technology changes exponentially, but social, economic, and legal systems change incrementally – Larry Downes

Technologie ontwikkelt zich nu eenmaal altijd veel sneller dan wetgeving. Dat noemen ze ook wel het ‘pacing problem‘. Er wordt wereldwijd inmiddels keihard gewerkt aan regels en ethiek voor AI. De EU heeft de AI Act, de VS lanceert AI-principes en ook landen als Japan en Canada zetten kaders neer. Belangrijker nog: steeds meer AI-ontwikkelaars bouwen zelf ethische toetskaders in hun werk.

Bedrijven als OpenAI en Anthropic publiceren ‘red teaming’-verslagen en stellen hun modellen open voor toetsing. Maar dit is vaak nog een wassen neus in mijn optiek, want dit alles is nog volledig vrijwillig/vrijblijvend voor de bedrijven. Zonder duidelijke verplichtingen, onafhankelijke controle en stevige handhaving blijven we kwetsbaar.  Wat zijn dan wel oplossingen? Ik heb een aantal ideeën voor Nederland op een rij gezet.

Een wettelijk recht op menselijke toetsing

Een AI-systeem mag nooit als enige beslissen over zaken die diep ingrijpen in iemands leven: denk aan het toekennen van toeslagen, zorgtoegang, een lening of zelfs een juridische beoordeling. Mensen moeten altijd het recht hebben om uitleg te krijgen en om die beslissing te laten herzien door een mens. Dat klinkt misschien logisch, maar is nog lang niet vanzelfsprekend geregeld.

In de Europese AI Act wordt het belang van menselijke controle bij risicovolle systemen genoemd, maar een hard afdwingbaar burgerrecht bestaat nog niet. In de financiële sector wél: daar geldt al dat kredietbeslissingen op verzoek opnieuw door een mens moeten worden bekeken. Nederland kan dit als eerste expliciet vastleggen, bijvoorbeeld via een aparte AI-wet of als uitbreiding op bestuursrechtelijke waarborgen. Digitale ombudsdiensten kunnen vervolgens burgers laagdrempelig helpen bij bezwaar en toetsing.

Dat is geen administratieve luxe, maar een bescherming tegen onzichtbare macht. Zolang systemen mogen beslissen zonder dat je weet wie verantwoordelijk is, zijn rechten kwetsbaar.

Transparantie als bouwplicht

AI-systemen die niet uitlegbaar zijn, zouden niet in gebruik mogen worden genomen. Iedereen die een AI-systeem ontwikkelt of inzet – overheid of bedrijf – moet vooraf documenteren hoe het werkt:

  • wat het doel is
  • welke data zijn gebruikt
  • welke aannames erin zitten
  • hoe vaak het faalt
  • hoe gebruikers feedback kunnen geven.

In andere sectoren is dat volkomen normaal. Denk aan het CE-keurmerk in de bouw of techniek: zonder technische onderbouwing geen toegang tot de markt. Grote techbedrijven publiceren inmiddels vrijwillig ‘model cards’ met uitleg over hun AI, maar die zijn vaak summier en juridisch niet bindend.

Door wettelijk te eisen dat ieder systeem dat publieke of maatschappelijke impact heeft een ‘algoritmisch paspoort’ moet hebben, wordt transparantie een ontwerpeis. Dat maakt het mogelijk om systemen te vergelijken, te controleren, en – indien nodig – af te wijzen. Juist in een tijd waarin AI-beslissingen steeds minder zichtbaar worden, is inzicht geen extraatje, maar een voorwaarde voor vertrouwen.

Onafhankelijke AI-toezichtteams

Goed toezicht op AI vereist meer dan een adviescommissie of ethisch panel. Er is behoefte aan echte inspectieteams met doorzettingsmacht: professionals die AI-systemen kunnen onderzoeken, audits kunnen afdwingen en indien nodig systemen stil kunnen leggen. Die modellen bestaan in andere sectoren allang. Denk aan de Nederlandse Voedsel- en Warenautoriteit of de Inspectie Gezondheidszorg.

Voor AI ontbreekt zo’n autoriteit nog. De overheid zou een onafhankelijke toezichthouder kunnen oprichten met multidisciplinaire teams: van juristen en ethici tot datawetenschappers en gedragspsychologen. Die krijgen toegang tot overheidsdata én private systemen als die publieke invloed hebben. Ze kunnen meldplicht opleggen bij incidenten, patronen signaleren, en waar nodig ingrijpen. Waarom dat nodig is? Omdat veel AI-toepassingen zó complex zijn dat zelfs ontwikkelaars ze nauwelijks begrijpen. Als niemand controleert, groeit het risico op misbruik, discriminatie en onveiligheid tot het moment dat de schade onomkeerbaar is.

Een nationaal kennisinstituut voor AI

Als we AI willen gebruiken in het publieke belang, hebben we een publieke kennisbasis nodig. Een onafhankelijk instituut, vergelijkbaar met het RIVM, dat onderzoek doet naar de maatschappelijke impact van AI, dat systemen beoordeelt en burgers en beleidsmakers objectief informeert. Zoiets bestaat nog niet, maar zou kunnen voortbouwen op bestaande partijen als TNO of het Rathenau Instituut. Het instituut zou best practices verzamelen, modellen toetsen op transparantie, risico’s in kaart brengen en wetenschappers, journalisten en overheden voorzien van actuele kennis.

Cruciaal: het moet echt onafhankelijk opereren. Dus zonder commerciële of politieke sturing. Waarom dit dringend is? Omdat we nu vooral afhankelijk zijn van kennis die bij techbedrijven zelf zit. Maar wie de technologie ontwikkelt, moet niet ook degene zijn die bepaalt of het goed gaat. Publieke technologie vraagt om publieke toetsing en dat begint bij publieke kennis.

Verplichte AI-educatie vanaf schoolniveau

Om je staande te houden in een wereld waarin AI keuzes beïnvloedt, gedrag stuurt en zelfs bepaalt wat je ziet, moet je begrijpen hoe het werkt. Daarom zou AI-educatie een structureel onderdeel moeten worden van het onderwijs – al vanaf de basisschool. Niet alleen technisch, maar ook ethisch en maatschappelijk: wat doet AI met je wereldbeeld, met privacy, met je rechten?

Finland is op dit vlak voorloper, met brede AI-lessen voor jongeren én volwassenen. In Nederland zijn er pilots en enthousiaste initiatieven, maar het ontbreekt aan samenhang en structurele ondersteuning. Het ministerie van OCW zou in samenwerking met de Nederlandse AI Coalitie een nationaal curriculum kunnen opstellen, inclusief leermiddelen, training voor docenten en betrokkenheid van het bedrijfsleven.

Want als we willen dat burgers later kritisch, weerbaar en vrij blijven in een wereld vol slimme systemen, moeten we ze die vaardigheden al jong aanleren. Digitale geletterdheid is niet optioneel, het is het nieuwe burgerschap.

De echte AI-vraag: wie stuurt wie?

Als we nu niets doen, groeit AI buiten ons om. Dan bouwen we systemen die mensen beoordelen, selecteren en sturen zonder dat we begrijpen hoe of waarom. De toeslagenaffaire zou dan geen pijnlijk incident meer zijn, maar het begin van een patroon waarin technologie menselijke schade veroorzaakt zonder dat iemand nog verantwoordelijk is. Niet uit kwade wil, maar uit gemak, onwetendheid en een gebrek aan regie.

Wat als we het nu eens anders proberen te doen? Dat we technologie beschouwen als een publiek vraagstuk, niet als een marktproduct. Dat we ethiek niet aan de achterkant toevoegen, maar vanaf de eerste regel code integreren. En dat we toezicht durven organiseren, recht durven beschermen, en jongeren leren hoe ze zichzelf kunnen wapenen tegen manipulatie door slimme systemen. Dan is AI geen bedreiging, maar een bondgenoot in het bouwen van een menswaardige samenleving.

De toekomst van AI is geen technisch verhaal. Het is een democratisch verhaal. Een rechtvaardigheidsvraag. Die ligt in mijn optiek niet in de handen van machines, maar in die van ons.

admin

Jan Scheele werkt dertien jaar op het snijvlak van deep tech, strategie en leiderschap. Als keynote spreker en dagvoorzitter maakt hij technologie tastbaar voor boardrooms, directieteams en grote podia, zonder de complexiteit te versimpelen of te verbergen achter buzzwords.

Zijn achtergrond ligt in het bouwen. Als CEO van een technologie scale-up, oprichter van meerdere techbedrijven en organisator van meer dan vijftig TED-events wereldwijd zag hij van dichtbij hoe technologische keuzes doorwerken in strategie, governance en cultuur. Vanuit zijn betrokkenheid bij het World Economic Forum en de BCNL Foundation kijkt hij daarbij niet alleen naar wat technisch mogelijk is, maar ook naar wat bestuurlijk houdbaar en maatschappelijk wenselijk is.

Hij publiceerde vijf boeken, waarvan twee Amazon-bestsellers, en schrijft wekelijks over AI, blockchain en de organisatorische gevolgen van deep tech. Zijn blogs bereikten inmiddels meer dan twee miljoen lezers.

Je kleding wordt slimmer dan je telefoon… en weet straks eerder dan jij dat je ziek wordt

Je kleding wordt slimmer dan je telefoon… en weet straks eerder dan jij dat je ziek wordt

Wat als je kleding meer doet dan je warmhouden? Wat als het ook meet hoe het met je gaat, je houding verbetert of je helpt om beter te slapen? Dat is geen toekomstmuziek meer. Slimme kleding – ook wel e-textiles of smart wear genoemd – is aan een stevige opmars bezig. En in mijn optiek is het een van de meest tastbare voorbeelden van hoe technologie onze dagelijkse routines langzaam maar zeker verandert.

Wat is het precies? Slimme kleding is kleding waarin technologie is verwerkt. Vaak zijn dat sensoren in de stof, geleidende draden, bluetoothchips of zelfs kleine AI-modules. Daarmee kan je kleding informatie verzamelen over je lichaam, beweging, temperatuur of omgeving. Die gegevens worden doorgestuurd naar een app of systeem dat er iets mee doet – van inzichten geven tot directe feedback.

Wat mij opvalt: de toepassingen zijn ontzettend breed, en lang niet allemaal futuristisch of ver weg. Een paar voorbeelden:

Wearable X ontwikkelde de Nadi X yoga pants: een yogabroek met ingebouwde trillingsmotoren die je zachtjes laat voelen als je je houding moet aanpassen. Geen yogaleraar nodig – je broek coacht je.

Levi’s en Google kwamen met de Commuter Trucker Jacket, een spijkerjas met aanraakgevoelige mouwen. Daarmee kun je swipen om een nummer te skippen of navigatie te activeren zonder je telefoon te pakken. Klinkt als een gimmick, maar het werkt verrassend soepel.

Under Armour’s Athlete Recovery Sleepwear neemt lichaamswarmte op en stuurt het terug in de vorm van infraroodlicht, wat zou bijdragen aan betere spierherstel en diepere slaap. Ik weet niet of het écht werkt – maar het idee is sterk: nachtkleding die actief meewerkt aan je herstel.

Ambiotex heeft een slim shirt dat je anaerobe drempel meet. Interessant voor topsporters, maar in mijn ogen ook voor mensen die bewuster willen trainen of herstellen na een blessure.

Hexoskin biedt shirts die naast hartslag en ademhaling ook je slaappatroon en vermoeidheid monitoren. Ik heb zo’n shirt getest: het voelt als gewone sportkleding, maar de data is verrassend uitgebreid en nuttig.

Neviano, een Frans modemerk, maakt badpakken met een UV-sensor. Als de zonkracht te hoog wordt, krijg je een seintje dat het tijd is voor zonnecrème of schaduw. Praktisch, zeker voor ouders met jonge kinderen.

– En dan zijn er de Sensoria socks, die drukpunten onder je voeten meten tijdens het hardlopen. Via de app krijg je looptechniek-tips om blessures te voorkomen. Dat klinkt misschien klein, maar wie ooit een stressfractuur heeft gehad weet hoe waardevol dit soort inzichten kunnen zijn.

In mijn optiek zit de kracht van slimme kleding vooral in het feit dat je er niets voor hoeft te doen. Je trekt het aan, en het doet z’n werk. Geen extra apparaten, geen handelingen – gewoon je kleren. En dat maakt het, voor mij, interessanter dan veel andere wearables.

Tegelijkertijd zijn er ook duidelijke beperkingen. De prijs ligt nog hoog: een slim jack kost al snel drie tot vijf keer zoveel als een normaal exemplaar. En hoewel de technologie indrukwekkend is, is de gebruikservaring vaak nog net niet soepel genoeg. Batterijen moeten opgeladen worden, connecties vallen soms weg, en wassen is meestal een uitdaging.

Bovendien speelt privacy een steeds grotere rol. Kleding die je hartslag, slaap of zelfs je stressniveau meet… wie heeft toegang tot die data? In mijn ogen moet de sector daar nog volwassen in worden. Want comfort en gezondheid zijn mooi – maar dan wél op jouw voorwaarden.

Mijn eindoordeel? Slimme kleding is geen hype. Het is een logische evolutie in een wereld waarin technologie steeds dichter op ons lijf zit. De voorbeelden die ik net noemde laten zien dat het allang geen toekomstvisie meer is. Maar om écht breed omarmd te worden, moet het betaalbaarder, betrouwbaarder en vooral: menselijker worden. Want slimme kleding moet niet alleen slim zijn – het moet je ook helpen om je beter, vrijer en gezonder te voelen. Dát is voor mij pas echt stijlvol.

admin

Jan Scheele werkt dertien jaar op het snijvlak van deep tech, strategie en leiderschap. Als keynote spreker en dagvoorzitter maakt hij technologie tastbaar voor boardrooms, directieteams en grote podia, zonder de complexiteit te versimpelen of te verbergen achter buzzwords.

Zijn achtergrond ligt in het bouwen. Als CEO van een technologie scale-up, oprichter van meerdere techbedrijven en organisator van meer dan vijftig TED-events wereldwijd zag hij van dichtbij hoe technologische keuzes doorwerken in strategie, governance en cultuur. Vanuit zijn betrokkenheid bij het World Economic Forum en de BCNL Foundation kijkt hij daarbij niet alleen naar wat technisch mogelijk is, maar ook naar wat bestuurlijk houdbaar en maatschappelijk wenselijk is.

Hij publiceerde vijf boeken, waarvan twee Amazon-bestsellers, en schrijft wekelijks over AI, blockchain en de organisatorische gevolgen van deep tech. Zijn blogs bereikten inmiddels meer dan twee miljoen lezers.

Meta’s AI-app maakt kunstmatige intelligentie sociaal – en dat is groter dan het lijkt

AI was jarenlang een soort individuele ervaring. Jij en een chatbot, op je laptop of telefoon, in een soort één-op-één gesprek. Maar wat als AI net zo sociaal wordt als Instagram of Spotify? Meta’s nieuwe AI-app doet precies dat: het maakt kunstmatige intelligentie onderdeel van je sociale netwerk. En dat is even wennen – maar misschien ook een gamechanger.

Wat doet de app? Je kunt ermee praten, tekst genereren, plaatjes maken, je slimme bril koppelen… niets nieuws onder de zon, zou je zeggen. Maar het verschil zit ‘m in de Discover-feed. Die laat zien wat anderen doen met AI. Prompts, vragen, beelden – alles wat mensen delen – kun je bekijken, liken, aanpassen of zelf gebruiken. Een soort TikTok, maar dan niet voor dansjes, maar voor AI-ideeën.

Waarom doet Meta dit? Omdat het iets goed begrijpt: AI is pas écht krachtig als het gedeeld wordt. In plaats van zelf eindeloos sleutelen aan de perfecte prompt, kun je straks gewoon zien hoe anderen het aanpakken. Net zoals je muziek deelt op Spotify of recepten op Pinterest. En als bedrijf met miljarden gebruikers is Meta perfect gepositioneerd om daar een platform voor te bouwen.

Wat is er goed aan? De technologie is indrukwekkend. Gebouwd op Llama 4 – het eigen AI-model van Meta – is de app snel, persoonlijk en spraakgestuurd. Je kunt wisselen tussen tekst, beeld en stem, en als je een Meta-bril hebt, loopt het gesprek gewoon mee van bril naar telefoon naar desktop. De AI onthoudt wat jij belangrijk vindt – van je vakantieplannen tot je voorkeur voor vegetarisch eten – en maakt antwoorden steeds persoonlijker.

Maar er zijn kanttekeningen. De app is voorlopig alleen in een paar Engelstalige landen volledig beschikbaar. En belangrijker: die persoonlijke ervaring vraagt om data. Veel data. Van wat je post op Facebook tot wie je volgt op Instagram. Volgens Meta gebeurt dat alleen met toestemming, en je kunt instellen wat je wel of niet deelt. Maar feit blijft: hoe persoonlijker de AI, hoe meer je moet prijsgeven. En dat roept vragen op over privacy, zeggenschap en transparantie – zeker gezien Meta’s verleden.

Dan is er nog het sociale aspect zelf. Want hoe zinvol is het om door de AI-gesprekken van anderen te scrollen? Voor de een een bron van inspiratie, voor de ander vooral chaos of zelfs onbedoeld oversharing. De waarde van die feed hangt dus sterk af van de community eromheen.

En hoe betrouwbaar is de AI eigenlijk? In tests maakt Meta’s assistent nog regelmatig simpele fouten – van verkeerde rekenantwoorden tot kromme logica. Dat is niet uniek voor Meta, maar het onderstreept wel dat deze app nog niet klaar is voor serieuze toepassingen zoals zorg of juridische hulp. Het is een consumentenproduct – voor nu vooral bedoeld om te ontdekken, spelen en experimenteren.

Dus wat is het eindoordeel? De nieuwe Meta AI-app is geen simpele ChatGPT-kloon. Het is een strategische zet die AI uit het isolement haalt en onderdeel maakt van het sociale web. Dat is slim, ambitieus, en ook een tikje spannend. Want als AI net zo invloedrijk wordt als sociale media, moeten we extra goed nadenken over regels, bescherming en zeggenschap.

Meta heeft met deze app misschien niet het slimste AI-model, maar wel het grootste podium. En dat kan de manier waarop we AI gebruiken – en samen beleven – definitief veranderen. De toekomst van AI wordt niet alleen slimmer. Ze wordt ook… socialer.

admin

Jan Scheele werkt dertien jaar op het snijvlak van deep tech, strategie en leiderschap. Als keynote spreker en dagvoorzitter maakt hij technologie tastbaar voor boardrooms, directieteams en grote podia, zonder de complexiteit te versimpelen of te verbergen achter buzzwords.

Zijn achtergrond ligt in het bouwen. Als CEO van een technologie scale-up, oprichter van meerdere techbedrijven en organisator van meer dan vijftig TED-events wereldwijd zag hij van dichtbij hoe technologische keuzes doorwerken in strategie, governance en cultuur. Vanuit zijn betrokkenheid bij het World Economic Forum en de BCNL Foundation kijkt hij daarbij niet alleen naar wat technisch mogelijk is, maar ook naar wat bestuurlijk houdbaar en maatschappelijk wenselijk is.

Hij publiceerde vijf boeken, waarvan twee Amazon-bestsellers, en schrijft wekelijks over AI, blockchain en de organisatorische gevolgen van deep tech. Zijn blogs bereikten inmiddels meer dan twee miljoen lezers.

3 manieren hoe overheden AI inzetten tégen burgers

3 manieren hoe overheden AI inzetten tégen burgers

Kunstmatige intelligentie wordt wereldwijd door overheden ingezet — maar steeds vaker niet vóór de burger, maar tegen hem. Denk aan surveillancesystemen, deportatie-algoritmes en militaire doelen die door AI worden geselecteerd. Het wrange is: ondanks de lessen van de Toeslagenaffaire, waarin geautomatiseerde systemen duizenden levens verwoestten, lijkt er nauwelijks iets veranderd. Transparantie ontbreekt, toezicht is minimaal, en de gevolgen zijn vaak niet te herstellen. Toch blijft de technologie oprukken, met grote gevolgen voor mensenrechten, privacy en zelfs levens.

Neem de Verenigde Staten. Sinds kort wordt AI actief gebruikt bij het opsporen en deporteren van mensen zonder verblijfsvergunning. Via een netwerk van databases en voorspellende algoritmes worden mensen gevolgd, geprofileerd en automatisch aangemerkt als “risico.” Deze aanpak komt voort uit het idee dat technologie objectiever zou zijn dan mensen. Maar klopt dat wel? Volgens burgerrechtenorganisaties leidt het vooral tot fouten en discriminatie. Er is nauwelijks transparantie, en mensen die onterecht op een lijst belanden, hebben vaak geen idee hoe ze daar überhaupt op gekomen zijn.

In Israël zien we een ander, nog schrijnender voorbeeld. Tijdens militaire operaties in Gaza maakte het Israëlische leger gebruik van AI-systemen met namen als Lavender en Gospel. Deze systemen helpen bij het selecteren van doelen, soms binnen seconden. Dat klinkt efficiënt, maar het roept fundamentele vragen op. Want hoe zeker weet je dat een algoritme het verschil kan zien tussen een militant en een burger? Volgens een recent artikel in de Financial Times accepteerde het leger een foutmarge van 10%. Bij technologie die over leven en dood beslist, is dat geen bijzaak.

Ook in de VS groeit het gebruik van zogeheten “AI-persona’s” in de opsporing. In een programma met de naam BlueOverwatch creëren veiligheidsdiensten digitale versies van verdachten. Deze avatars worden geanalyseerd om hun gedrag te voorspellen, nog vóór ze iets strafbaars hebben gedaan. Het doet denken aan sciencefiction, maar is vandaag al praktijk. Volgens de ontwikkelaars zou het gaan om “proactieve veiligheid.” Tegelijkertijd waarschuwen experts: dit is een glijdende schaal naar permanente surveillance, zonder duidelijke spelregels of toezicht.

De cijfers onderschrijven dat we hier niet te licht over moeten denken. Uit onderzoek van Stanford blijkt dat wereldwijd 75 van de 176 onderzochte landen al AI inzetten voor surveillance-doeleinden, vaak zonder duidelijke wetgeving. En volgens Freedom House zijn we al negen jaar op rij bezig aan een wereldwijde daling van digitale vrijheid.

Moeten we dan stoppen met AI? Nee, absoluut niet. De technologie zelf is niet het probleem. Het gaat erom hoe we het gebruiken – en vooral wie er de controle over heeft. AI kan overheden helpen slimmer, eerlijker en efficiënter te werken. Maar zonder duidelijke grenzen, toezicht en publieke discussie ligt misbruik op de loer.

Het is tijd dat we verder kijken dan hype en belofte. AI vraagt niet alleen om slimme programmeurs, maar ook om scherpe democratische keuzes.

admin

Jan Scheele werkt dertien jaar op het snijvlak van deep tech, strategie en leiderschap. Als keynote spreker en dagvoorzitter maakt hij technologie tastbaar voor boardrooms, directieteams en grote podia, zonder de complexiteit te versimpelen of te verbergen achter buzzwords.

Zijn achtergrond ligt in het bouwen. Als CEO van een technologie scale-up, oprichter van meerdere techbedrijven en organisator van meer dan vijftig TED-events wereldwijd zag hij van dichtbij hoe technologische keuzes doorwerken in strategie, governance en cultuur. Vanuit zijn betrokkenheid bij het World Economic Forum en de BCNL Foundation kijkt hij daarbij niet alleen naar wat technisch mogelijk is, maar ook naar wat bestuurlijk houdbaar en maatschappelijk wenselijk is.

Hij publiceerde vijf boeken, waarvan twee Amazon-bestsellers, en schrijft wekelijks over AI, blockchain en de organisatorische gevolgen van deep tech. Zijn blogs bereikten inmiddels meer dan twee miljoen lezers.

OpenAI is building its own social media platform: smart move or peak AI hype?

OpenAI is building its own social media platform: smart move or peak AI hype?

OpenAI – the company behind ChatGPT – is reportedly working on its own social media platform. This news recently surfaced through a series of tweets, leaks, and lively discussions on forums like Hacker News. What started as a rumor now seems more serious than initially thought. Allegedly, there is already an internal prototype where users can post AI-generated images in an Instagram-like feed. In this article, I’ll dive into it!

My first question, probably like many others: why on earth would an AI company dive into the already saturated world of social media? Is this a brilliant strategic idea, or an expensive distraction from their core mission? The first signals about this plan came from The Verge, which reported that OpenAI is working on a social platform where image generation via ChatGPT plays a central role.

Imagine: you create a Ghibli-style AI image, click ‘post,’ and share it with your followers in a feed. Sam Altman, OpenAI’s CEO, is said to be gathering feedback behind the scenes from trusted insiders about the idea.

That Altman is thinking about this isn’t really surprising. Back in February, he responded to a post about Meta’s AI plans by saying, “Ok fine maybe we’ll do a social app.” It sounded like a joke at the time, but now it appears to be a serious strategy. Combine that with OpenAI’s public experiments with an AI image feed on Sora.com, and the picture becomes clearer.


Why this could actually be a smart move

Over the past few days, I’ve been reading through countless forums like Reddit and Hacker News to form a well-rounded opinion on this plan. I have to admit, there are some interesting angles to it.

  1. Fresh data supply
    OpenAI constantly needs new, real user data to improve its models. As more and more online data disappears behind paywalls or gets contaminated with AI-generated content, having a proprietary stream of genuine user data is invaluable. A social network where people actively post, comment, and share provides exactly that.
  2. Creative co-creation
    Instead of endless political arguments or viral videos, an AI-driven platform could revolve around expression and creativity. Think of posts created through collaboration between humans and machines. That’s a fundamentally different starting point compared to existing networks—and potentially refreshing.
  3. Always a digital sparring partner
    Imagine a platform where you type a thought, and the AI helps make it sharper, more visual, or more engaging. That’s not social media as we know it—that’s a personal assistant for your content creation. There’s real potential here. You can already see hints of this happening on platforms like Instagram and WhatsApp, where similar features are being introduced.

A new network… or a repeat of past mistakes?

Of course, there are also plenty of reasons why this could end up being another Google Plus moment.

  1. An overcrowded market
    We already have X (formerly Twitter), Threads, Mastodon, Bluesky, Reddit, Discord, Instagram… the list is endless. Why would users adopt yet another network, especially one potentially populated by bots? Personally, I’m finding myself reducing the number of active channels just to maintain focus.
  2. AI as a social illusion
    A network filled with posts and conversations created by AIs may sound fascinating, but in my view, it can quickly feel hollow. Many people value social networks because real people are behind them. If that human layer is missing, there’s little emotional value left.
  3. Privacy and trust
    OpenAI is already under fire for using training data without clear consent. If the company also starts reading your social posts—whether you consent or not—how transparent and fair will that be? And who decides what you are allowed to share on a network built by an AI company?
  4. Loss of focus at OpenAI
    Putting on my startup coach hat for a moment: OpenAI is fundamentally an AI research and product company. Building a social network—with all the moderation, growth hacking, community building, and everything else that entails—risks stretching the company too thin. Resources currently devoted to fundamental AI development could be scattered across a project far outside their original expertise. In a market where competition around model quality, reliability, and speed is heating up, this could be a major distraction.

Caught between ambition and a hunger for data

Whether this is a good idea really depends on your perspective. For OpenAI, it’s a smart move strategically: it delivers user data, visibility, and a way to integrate their tools more deeply into everyday life. But for users, the tension is greater. Do we want yet another platform? And more importantly: do we want to fill that platform with our thoughts, images, and conversations, knowing they might be used to train AI systems?

If this network manages to create a more positive, creative, and AI-assisted form of online interaction, it could add real value. But if it becomes just another smart data trap, filled with AI content and lacking a human soul, people will likely walk away as quickly as they arrived.


When will we hear more?

For now, nothing has been officially announced, but the direction is clear. The AI image feed on Sora seems to be the first public test. It’s likely that in the coming months, OpenAI will experiment with small features within ChatGPT itself—like sharing generated content with others—before potentially launching a separate app.

Whether this new network can truly attract users comes down to one thing: does it genuinely enhance the way we interact online? If it’s just an AI-coated version of existing networks, the hype will fade fast. But if OpenAI succeeds in giving co-creation and AI interaction a more human face, it could very well carve out a whole new kind of online space.

admin

Jan Scheele werkt dertien jaar op het snijvlak van deep tech, strategie en leiderschap. Als keynote spreker en dagvoorzitter maakt hij technologie tastbaar voor boardrooms, directieteams en grote podia, zonder de complexiteit te versimpelen of te verbergen achter buzzwords.

Zijn achtergrond ligt in het bouwen. Als CEO van een technologie scale-up, oprichter van meerdere techbedrijven en organisator van meer dan vijftig TED-events wereldwijd zag hij van dichtbij hoe technologische keuzes doorwerken in strategie, governance en cultuur. Vanuit zijn betrokkenheid bij het World Economic Forum en de BCNL Foundation kijkt hij daarbij niet alleen naar wat technisch mogelijk is, maar ook naar wat bestuurlijk houdbaar en maatschappelijk wenselijk is.

Hij publiceerde vijf boeken, waarvan twee Amazon-bestsellers, en schrijft wekelijks over AI, blockchain en de organisatorische gevolgen van deep tech. Zijn blogs bereikten inmiddels meer dan twee miljoen lezers.

Mijn wekelijkse

Shot inspiratie

Elke week ontvangen 400+ mensen een shot deep-tech inspiratie. Ook ontvangen? Schrijf je hier rechts gratis in.

Ik spam nooit en gebruik het mailadres
alleen voor deze nieuwsbrief.

Copyright © 2026 Jan Scheele

Ook elke week een shot deeptech inspiratie?

Meld je aan om elk weekend een gratis shot inspiratie te ontvangen in de mailbox.

Ik spam nooit en gebruik het mailadres
alleen voor deze nieuwsbrief.

Paid Search Marketing
Search Engine Optimization
Email Marketing
Conversion Rate Optimization
Social Media Marketing
Google Shopping
Influencer Marketing
Amazon Shopping
Explore all solutions