Vibe coding in opmars: met één simpele prompt een app bouwen

Vibe coding in opmars: met één simpele prompt een app bouwen

Met een simpele spraakopdracht een app laten bouwen. Zonder kennis van software-ontwikkeling. Vibe coding maakt het met AI mogelijk en maakt een snelle opmars. In dit artikel duik ik in op deze nieuwe trend.

Op mijn 13e begon ik met het ontwikkelen van websites. Eerst voor de kerk, daarna voor bedrijven van ouders van vrienden. Ik vond het echt onwijs leuk om urenlang te bouwen en steeds meer te leren over hoe je online zaken kon maken. Zoeken naar de oplossing voor een bug, het ontwerpen van een gaaf design in Dreamweaver en het verder doorontwikkelen. Toen ik mijn digital agency (inmiddels verkocht) tijdens mijn studie verder uitbouwde, nam ik developers aan en stopte ik met ontwikkelen. Maar de passie ervoor bleef altijd overeind.

Doordat ik door mijn verschillende huidige bedrijven echt in de meest uiteenlopende sectoren mag werken, heb ik elke maand wel weer een nieuw idee voor een platform of app. Maar door tijdsgebrek laat ik die ideeën altijd op de plank liggen. Laatst zat ik met een vriend op het terras, die mij uitdaagde om eens een idee van zo’n app aan hem te vertellen. Wat ik niet wist, was dat hij de AI-app Cursor liet meeluisteren. Die ging vervolgens een kwartier lang een plan uitwerken om het te bouwen. Een half uur later was mijn app gebouwd. Perfect en helemaal klaar om te gebruiken? Nee. Was ik stomverbaasd? Ja!

Vibe coding: ingrijpende verandering in software-ontwikkeling

Ik denk dat vibe coding echt de meest ingrijpende verandering in software-ontwikkeling van de afgelopen jaren is. Voor mijn gevoel gaat het verder dan een AI die wat code uitspuugt: het is een compleet nieuwe manier van denken, werken en bouwen. Plotseling hoeft niemand meer honderden regels syntaxis uit het hoofd te leren of eindeloos API-documentatie te doorploegen; je beschrijft simpelweg wat je wil en de AI maakt de rest.

Vibe coding basically refers to using generative AI not just to assist with coding, but to generate the entire code for an app. – Noah Giansiracusa van  Bentley University

Daardoor kan echt iedereen zonder klassieke code-achtergrond, of je nu ontwerper of ondernemer, data-analist of onderwijzer bent, in no time werkende prototypes neerzetten. Vibe coding is in korte tijd zo groot geworden omdat de bekende AI’s (zoals GPT-4, Claude en diverse code-specialisten) nu verrassend snel, goedkoop en accuraat werken. Waar AI in de beginfase leuk was voor sinterklaasgedichten en recepten, zie ik nu teams van vrienden die dagelijks hun core-product inkoppen via prompts.

AI is just the biggest unlock. So we’re going to have many more people who are going to be able to build apps. – Sherry Jiang, co-founder en CEO van Peek

Cijfers over het gebruik zijn er niet echt. Al schemeren de grote techbedrijven wel publiekelijk met cijfers over hoeveel van hun code al door AI is gegenereerd (en niet door de menselijke developers). Bij Microsoft is dat 30%, Google 25% en bij Meta moet dat binnen 2 jaar 100% zijn.

Tools voor vibe coding

Nadat mijn vriend mij helemaal ‘verslaafd’ had gemaakt aan vibe coding, slaap ik een uur minder per nacht en ben ik me hier volledig in gaan verdiepen. Niet alleen in hoe het werkt, maar ook door meerdere ideeën voor apps, die ik al jaren op de plank had liggen, nu gelijk te laten bouwen. Voor mijn projecten kies ik meestal eerst een van deze bekendere tools:

  • GitHub Copilot (binnen VS Code)
  • Replit Agent (in de browser)
  • Cursor AI (desktop met chat en project-brede context)
  • Lovable.dev (voor complete full-stack apps uit één prompt)
  • Windsurf (de voormalige Codeium, die zelf taken uitvoert in jouw projectmap).

GPT lanceert binnenkort de Codex functie, die dit ook helemaal mogelijk moet gaan maken.

Elk heeft zijn in mijn optiek echt zijn eigen kracht:

  • Copilot is lekker geïntegreerd in de Microsoft office suite
  • Replit werkt zonder installatie
  • Cursor geeft je uitgebreide uitleg (wat ik stiekem ook wel fijn en leuk vind)
  • Lovable is echt by far de snelste.

Ga er vooral een paar proberen, kijk welke interface je het prettigst vindt en bouw daar je workflow omheen.

Hoe kun je vibe coding inzetten?

Stel: je wil een inschrijfformulier voor je nieuwsbrief. Je opent je gekozen tool en typt: “Maak een contactformulier met velden voor naam, e-mail en bericht.” Direct verschijnt de HTML, CSS en het stukje JavaScript. Je klikt op run, ziet het formulier en zegt: “Voeg validatie toe aan het e-mailveld” of “Maak de verzendknop groen en zet er een icoontje bij”. De AI past de code aan en jij ziet meteen het resultaat. Zo werk je door en bouw je stap voor stap extra functionaliteiten in, zonder dat je ooit een console vol foutmeldingen hoeft te lezen. Tenzij je natuurlijk wil debuggen.

Naast mijn eigen ervaringen, staat het internet bomvol gave voorbeelden van mensen die net als ik met vibe coding helemaal door het geluid gaan. Nederlander Pieter Levels bouwde bijvoorbeeld in tien minuten een simpel spelletje met Cursor, volledig via natuurlijke taal. Hij zei: “Ik typ wat ik wil zien, en de AI flanst het in elkaar. De magie is dat ik verder kan zonder te sleutelen aan syntax.”

Vibe coded! It’s a lot of fun. – Charlie Shrem

Charlie Shrem, een vroege Bitcoin-pionier, experimenteert met een AI-gestuurde ‘faucet’ op 21million.com. Hij zette in één weekend een werkende interface neer. De teams van de meest bekende startup incubator Y Combinator laten AI nu al 95% van hun MVP’s schrijven, waardoor ze in één dag live feedback kunnen verzamelen. Studenten van de TU Delft Informatica-opleiding gebruikten Replit Agent om zich volledig te richten op data-analyse en UX, in plaats van de codetaal. Ze kwamen in een week met een werkende datavisualisatietool.

Niet alles is rozengeur en maneschijn

Uiteraard is niet alles rozengeur en maneschijn. Net als bij algemeen gebruik van modellen als GPT, verwacht ik dat er flinke ‘technische schuld’ ontstaat als je AI-gegenereerde code niet goed reviewt, maar klakkeloos overneemt, lanceert en gebruikt. Bovendien moet je de verantwoordelijkheid niet laten liggen en gelijk pro-actief insteken: wie is aansprakelijk als er een beveiligingslek insluipt? Organisaties waarvan ik weet dat ze aan het vibe coden zijn, bouwen daarom al extra lagen security audits in. Hallicunaties blijven een ding.

Er speelt in mijn optiek ook een licentievraag: veel AI-modellen zijn getraind op open-source code en het is nog niet helemaal duidelijk of gegenereerde fragmenten licentie-problemen kunnen veroorzaken. Net als wat we nu zien met gegenereerde afbeeldingen en muziek, waar talloze rechtszaken om worden gevoerd.

Tot slot zie ik dat junior developers soms te afhankelijk worden van vibe coding, waardoor ze de kans missen om zelf algoritmisch te leren denken. Iets wat ik als zeer belangrijk ervaarde toen ik zelf nog codeerde.

Vibe coding gaat de programmeur niet vervangen

Uiteraard lees ik alweer op veel fora en in opinie-artikelen dat we over 2 jaar geen enkele menselijke programmeur meer hebben. Maar ik geloof niet dat vibe coding simpelweg de programmeur vervangt. Ik denk dat de rol juist verschuift. Ik verwacht dat developers straks minder tijd kwijt zijn aan routinetaken en veel meer aan architectuur, beveiliging en innovatie.

Zelf ben ik nu al nieuwsgierig naar Agentic AI hierbinnen: systemen die niet alleen code genereren, maar zelfstandig hele trajecten doorlopen. Van code review tot deployment. Voor mij is vibe coding geen hype, maar echt een krachtige uitbreiding van de toolbox van iedere moderne developer. De wereld van software-ontwikkeling is volop in beweging en ik kan niet wachten om verder te bouwen aan mijn eigen apps!

admin

Jan Scheele werkt dertien jaar op het snijvlak van deep tech, strategie en leiderschap. Als keynote spreker en dagvoorzitter maakt hij technologie tastbaar voor boardrooms, directieteams en grote podia, zonder de complexiteit te versimpelen of te verbergen achter buzzwords.

Zijn achtergrond ligt in het bouwen. Als CEO van een technologie scale-up, oprichter van meerdere techbedrijven en organisator van meer dan vijftig TED-events wereldwijd zag hij van dichtbij hoe technologische keuzes doorwerken in strategie, governance en cultuur. Vanuit zijn betrokkenheid bij het World Economic Forum en de BCNL Foundation kijkt hij daarbij niet alleen naar wat technisch mogelijk is, maar ook naar wat bestuurlijk houdbaar en maatschappelijk wenselijk is.

Hij publiceerde vijf boeken, waarvan twee Amazon-bestsellers, en schrijft wekelijks over AI, blockchain en de organisatorische gevolgen van deep tech. Zijn blogs bereikten inmiddels meer dan twee miljoen lezers.

Virtuele influencers: hype, hulp of het einde van echtheid?

Virtuele influencers: hype, hulp of het einde van echtheid?

Stel je voor: een influencer die nooit een slechte dag heeft, nooit een grens overschrijdt en altijd precies zegt wat jij als merk wil horen. Klinkt ideaal? Voor steeds meer bedrijven is het dat ook. Virtuele influencers – digitale personages aangedreven door AI en CGI – winnen razendsnel terrein in de marketingwereld. En met reden. Ze zijn altijd beschikbaar, perfect schaalbaar en 100% controleerbaar. Maar hoe echt moet iets zijn om invloed te hebben?

De cijfers liegen niet (maar ze zijn wel virtueel)

Uit een recent benchmarkrapport blijkt dat bijna 60% van de marketeers al werkt met AI-influencers, en bijna de helft is daar enthousiast over. Niet zo gek: virtuele influencers behalen gemiddeld een hogere betrokkenheid (2,84%) dan hun menselijke tegenhangers (1,72%). En consumenten lijken eraan te wennen. In de VS liet 29% van de shoppers zich al verleiden tot een aankoop op basis van aanbevelingen van een digitale persoonlijkheid. Vooral Gen Z en Millennials vallen massaal voor de zorgvuldig gecreëerde charme van figuren als Lil Miquela, Lu do Magalu en Noonoouri.

Perfecte avatars voor perfecte campagnes

Hun aantrekkingskracht? Volledige controle. Geen schandalen, geen planningsproblemen, geen creatieve afwijkingen. Grote merken als Calvin Klein, Dior, IKEA en TUI zetten deze digitale personages in om campagnes te voeren die net zo consistent zijn als een goed afgestelde algoritme. En ze zijn opvallend effectief. In de mode- en reisindustrie zetten bedrijven als H&M en Qatar Airways ze in om kosten te besparen, diversiteit te tonen en snel in te spelen op trends.

Maar is het ook geloofwaardig?

Daar wringt de schoen. Want hoewel veel consumenten de content aantrekkelijk vinden, twijfelen ze aan de echtheid. Volgens een studie van YouTube vinden veel gebruikers virtuele influencers “authentiek nep”. En dat is een probleem. Zeker in een tijd waarin consumenten meer waarde hechten aan transparantie en echtheid. Onderzoek van Northeastern University wijst zelfs uit dat als een virtuele influencer betrokken is bij een teleurstellende aankoop, het merk meer reputatieschade lijdt dan bij een menselijke influencer.

Een nieuwe definitie van ‘echt’?

Toch is het te kort door de bocht om ze als gimmick af te doen. De psychologische afstand tussen echt en virtueel vervaagt. Onderzoek uit Psychology & Marketing laat zien dat mensen virtuele influencers op veel vlakken als even geloofwaardig ervaren als echte mensen – zolang ze maar “menselijk genoeg” zijn vormgegeven. De sleutel ligt dus niet in perfectie, maar in geloofwaardige imperfectie. Een emotionele frons. Een spontane lach. Of een goed verteld verhaal.

De ethische haken en ogen

Tegelijk doemen serieuze vragen op. Wat betekent dit voor echte creatieven, modellen, fotografen? Hoe zit het met het auteursrecht van je digitale dubbelganger? En hoe voorkom je dat diversiteit een decorstuk wordt in plaats van een diep verankerde waarde? De introductie van Kami, de eerste virtuele influencer met het syndroom van Down, laat zien dat AI ook kan bijdragen aan inclusie. Maar dan moet het wel écht zijn – niet alleen visueel, maar ook in wie de stem achter de avatar bepaalt.

Virtuele influencers zijn geen voorbijgaande hype. Ze zijn hier om te blijven – en ze veranderen hoe we marketing, media en misschien zelfs identiteit begrijpen. Toch moeten merken oppassen voor de valkuil van gemak. Een perfect geprogrammeerde avatar kan veel, maar vervangt niet het gevoel dat iemand je écht begrijpt. De toekomst ligt waarschijnlijk in hybride vormen: waarin het menselijke en het virtuele samenkomen. Waar techniek versterkt, maar niet vervangt.

Dus ja, de influencer van de toekomst is misschien deels van pixels gemaakt. Maar de klik die telt, blijft van vlees en bloed.

admin

Jan Scheele werkt dertien jaar op het snijvlak van deep tech, strategie en leiderschap. Als keynote spreker en dagvoorzitter maakt hij technologie tastbaar voor boardrooms, directieteams en grote podia, zonder de complexiteit te versimpelen of te verbergen achter buzzwords.

Zijn achtergrond ligt in het bouwen. Als CEO van een technologie scale-up, oprichter van meerdere techbedrijven en organisator van meer dan vijftig TED-events wereldwijd zag hij van dichtbij hoe technologische keuzes doorwerken in strategie, governance en cultuur. Vanuit zijn betrokkenheid bij het World Economic Forum en de BCNL Foundation kijkt hij daarbij niet alleen naar wat technisch mogelijk is, maar ook naar wat bestuurlijk houdbaar en maatschappelijk wenselijk is.

Hij publiceerde vijf boeken, waarvan twee Amazon-bestsellers, en schrijft wekelijks over AI, blockchain en de organisatorische gevolgen van deep tech. Zijn blogs bereikten inmiddels meer dan twee miljoen lezers.

Zitten we wel te wachten op AI-boeken, -kunst, -film en -muziek? Wat moeten we met effortless art

Zitten we wel te wachten op AI-boeken, -kunst, -film en -muziek? Wat moeten we met effortless art

Een film op maat met jezelf in de hoofdrol, een schilderij van je dromen in vijf seconden of een boek over rouw dat een machine voor je schrijft. Kunst is nog nooit zo makkelijk  en zo ongemakkelijk  geweest. Kunstenaars, platforms en techbedrijven experimenteren volop met GenAI. Maar bij mij knaagt de vraag steeds meer: willen mensen wel geraakt worden door iets dat geen ziel heeft? Mag ‘moeiteloos’ ook gewoon mooi zijn? In dit artikel duik ik er op in.

Op de kunstbeurs TEFAF in Maastricht hoorde ik laatst iemand bij een schilderij zeggen: “Er zit zoveel ziel en zaligheid in”. Het schilderij van Picasso is met veel aandacht, moeite en levenservaring gemaakt. Het is niet perfect, maar het voelt wel écht. Die ervaring missen veel mensen bij AI-kunst. Een algoritme kent geen jeugdherinneringen, geen verdriet, geen blik op een Frans lelievijver zoals Monet. Dus, zeggen critici, kan het ook geen echte kunst maken.

Maar de praktijk is weerbarstig. Uit een onderzoek van MIT (2023) blijkt dat 40% van de mensen AI-gegenereerde kunst niet van menselijke kunst kan onderscheiden. Platformen zoals ArtStation, Spotify en TikTok staan vol met razend populaire AI-content. Soms bewust, soms stiekem. Blijkbaar doet de oorsprong er niet altijd toe, zolang het resultaat aanspreekt lijkt het.

Samenwerken met de machine

Gelukkig is het niet óf mens, óf machine. Steeds meer artiesten zien AI niet als bedreiging, maar als creatieve partner. De Nederlandse DJ Reinier Zonneveld experimenteert live met AI in zijn techno-sets. Samen met een algoritme maakt hij beats, laat hij loops terugkomen en improviseert hij met wat het publiek doet. Het resultaat: een hybride set die niet door één brein is gemaakt, maar door twee! Ook kunstenaars zoals Sougwen Chung gebruiken AI als penseel. Ze trainen modellen op hun eigen werk, waardoor de machine een verlengde wordt van hun stijl. Geen vervanging dus, maar een nieuw soort samenwerking.

Er wordt vaak gesproken over de gevaren van AI in kunst. Maar er zijn in mijn optiek ook genoeg overtuigende argumenten ‘in favour’. AI kan de toegang tot creativiteit verbreden. Je hoeft geen dure kunstacademie te hebben gevolgd of een platenlabel achter je te hebben staan om te maken wat in je hoofd zit. Met behulp van generatieve AI kunnen mensen hun ideeën vormgeven in tekst, beeld of geluid, ook als ze technisch niet onderlegd zijn. In die zin democratiseert AI het maken van kunst: het verlaagt de drempel voor expressie.

Boeken schrijven

De afgelopen jaren heb ik bijvoorbeeld drie boeken gepubliceerd, waarvan er een vier jaar aan onderzoek heeft gekost. Inmiddels ben ik alweer bezig met een nieuw boek en ik krijg dan ook wel vaak het verwijt ‘dat laat je zeker door AI schrijven’. Dat is deels waar. Zelf gebruik ik AI voor het doen van onderzoek voor mijn nieuwe boeken. Ik laat analyses doen van tientallen andere boeken, onderzoeken en discussiefora als Reddit, wat ongekend interessante inzichten levert voor het schrijven. Iets wat ik wel lekker zelf blijf doen, omdat ik het te leuk vind en mijzelf ook echt versterkt in mijn dagelijkse werk als spreker/coach.

Bovendien kan AI juist de creativiteit van mensen stimuleren in plaats van afremmen. Kunstenaars die samenwerken met AI worden soms geconfronteerd met onverwachte patronen, invallen of vervormingen die ze zelf nooit bedacht zouden hebben. Dat kan leiden tot een frisse blik op hun eigen werk. Oxford-hoogleraar Marcus du Sautoy ziet dit als een kans:

AI kan ons wakker schudden uit onze automatische routines. Mensen gedragen zich vaak als machines, AI helpt ons daar juist uit.

Je zou dus kunnen zeggen dat het algoritme niet de vervanger van de kunstenaar is, maar een speelse tegenspeler die je uitdaagt om verder te denken.

Begin nieuw hoofdstuk?

Dan is er nog een filosofischer argument dat ik laatst las: kunst is altijd een spiegel van haar tijd. De industriële revolutie bracht realisme én abstractie. De komst van fotografie bevrijdde schilders van het idee dat ze de werkelijkheid moesten weergeven. Nu, in een tijd waarin technologie ons dagelijks leven bepaalt (kijk even naar de telefoon, het internet), is het logisch dat ook kunst zich daartoe verhoudt. Misschien is het gebruik van AI in kunst niet het einde van een tijdperk, maar juist het begin van een nieuw hoofdstuk.

Zorgen

Toch heb ik ook wel serieuze zorgen over deze ontwikkelingen. Een van de grootste is de vervaging van de grens tussen echt en nep. In de Netflix-documentaire What Jennifer Did werden bewerkte foto’s gebruikt waarvan kijkers dachten dat ze authentiek waren. De documentairemaker gaf toe dat delen van de afbeelding zijn aangepast, maar bleef vaag over hoe en met welke middelen. Dit roept in mijn optiek niet alleen vragen op over esthetiek, maar ook over ethiek. Als beelden niet meer representeren wat echt was, maar wat plausibel lijkt, ondermijn je het vertrouwen in visuele informatie. Zeker in journalistieke of documentaire context.

Daarnaast zie ik ook echt het risico van artistieke middelmatigheid. Een soort bias. AI werkt op basis van bestaande data: wat populair is, wat herkenbaar is, wat gemiddeld werkt. Daarmee is het bij uitstek geschikt om te bevestigen wat we al kennen. In plaats van verrassen, choqueert het zelden is mijn ervaring. Filmcriticus Gwilym Mumford waarschuwt dan ook voor een toekomst van op maat gemaakte AI-films waarin je zelf de hoofdrol speelt in een romantische komedie met Marilyn Monroe:

Een film die alleen jouw wensen volgt, verrast je nooit.

Het zijn juist de onverwachte keuzes van een kunstenaar die kunst gelaagd en betekenisvol maken. Iets dat AI (nog) niet lijkt te beheersen.

Er speelt ook echt een economische kant mee in het verhaal. Want steeds vaker gebruiken filmstudio’s, uitgevers en platforms AI om kosten te besparen. Posters voor grote series worden niet meer ontworpen door illustratoren, maar gegenereerd in Midjourney. Tyler Perry zette zijn $800 miljoen studio-uitbreiding stop toen hij Sora zag:

Jobs are going to be lost.

Zelfs muziekplatforms experimenteren met AI-DJ’s. Voor Reinier Zonneveld is AI een speelkameraad op het podium, maar voor veel artiesten betekent diezelfde technologie een dreiging voor hun broodwinning. De vraag is: wie profiteert van moeiteloze kunst? Wie verdwijnt er geruisloos door?

De kernvragen die we ons naar mijn mening moeten gaan stellen zijn; wat zoeken we in een schilderij, een roman, een film? Troost, verwondering, herkenning? Maakt het dan uit of dat gevoel wordt opgeroepen door een mens of een machine? Misschien wel, misschien niet.

Het probleem ontstaat als we ophouden met vragen stellen

Want zolang AI een tool blijft en niet het verhaal zélf, blijft er ruimte voor menselijke expressie. Het probleem ontstaat pas als we ophouden met vragen stellen. Als we zonder nadenken aannemen dat goed genoeg ook echt goed is. Als we gemak verwarren met betekenis.

‘Effortless art’ klinkt aantrekkelijk. Kunst zonder zweet, zonder worsteling, zonder tijdsdruk. Maar juist in die moeite, in het niet-weten, in het zoeken zit de ziel waar die vrouw op de TEFAF over sprak. Als kunst niets meer van de maker vraagt, vraagt het dan nog iets van de kijker? Misschien zit de waarde van kunst juist niet in hoe snel het gemaakt wordt, maar in hoeveel tijd het in ons blijft hangen.

admin

Jan Scheele werkt dertien jaar op het snijvlak van deep tech, strategie en leiderschap. Als keynote spreker en dagvoorzitter maakt hij technologie tastbaar voor boardrooms, directieteams en grote podia, zonder de complexiteit te versimpelen of te verbergen achter buzzwords.

Zijn achtergrond ligt in het bouwen. Als CEO van een technologie scale-up, oprichter van meerdere techbedrijven en organisator van meer dan vijftig TED-events wereldwijd zag hij van dichtbij hoe technologische keuzes doorwerken in strategie, governance en cultuur. Vanuit zijn betrokkenheid bij het World Economic Forum en de BCNL Foundation kijkt hij daarbij niet alleen naar wat technisch mogelijk is, maar ook naar wat bestuurlijk houdbaar en maatschappelijk wenselijk is.

Hij publiceerde vijf boeken, waarvan twee Amazon-bestsellers, en schrijft wekelijks over AI, blockchain en de organisatorische gevolgen van deep tech. Zijn blogs bereikten inmiddels meer dan twee miljoen lezers.

7 maatschappelijke AI-uitdagingen (en mijn oplossingen) waar we nú aan moeten werken

In Nederland hoeven we niet naar futuristische dystopieën te kijken om de gevaren van AI te begrijpen. Denk bijvoorbeeld aan de Toeslagenaffaire. Een algoritme van de Belastingdienst beoordeelde automatisch wie verdacht was van fraude. Geen transparantie, geen menselijke controle – alleen een systeem dat duizenden ouders onterecht wegzette als fraudeurs. Het gevolg: levens verwoest, banen kwijt, kinderen uit huis geplaatst. En niemand die écht aansprakelijk was. In de AI-high waar veel professionals en organisaties in zitten, vergeten we in mijn optiek om ook echt scherp te gaan kijken naar de minder positieve kanten.

Elke nieuwe technologie begint met blinde vlekken

We zien het elke keer weer bij de meeste nieuwe technologieën. De opkomst van internet leidde tot explosies in criminaliteit en desinformatie. De Bitcoin-revolutie begon met idealen, maar trok ook hackers en witwassers aan. Social media begonnen als platforms om te verbinden, maar werden snel wapens in informatie-oorlogen. En denk aan drones: ooit hobby-technologie, nu inzetbaar voor spionage of zelfs aanvallen. Wetgeving? Die liep altijd achter.

We zien nu dezelfde reflexen bij AI: overheden die worstelen met regels, bedrijven die winst voorrang geven, criminelen die de boel slim misbruiken en een samenleving die pas echt wakker schrikt als het misgaat. Ja, ik word elke dag enthousiaster over alle mogelijkheden en hoe ze mij versterken als professional. Maar ik merk elke keer weer als ik ergens spreek over AI en het publiek erover vraag; niemand houdt de ontwikkelingen meer bij; zo veel en zo snel. Laat staan dat mensen rustig nadenken over de impact ervan. Wat AI kan, maar vooral: wat het doet en wat dat met ons doet.

Zeven AI-gevaren die al geen toekomstmuziek meer zijn

De discussie over AI-risico’s richt zich in mijn optiek vaak op de bekende thema’s: hallucinerende chatbots, privacyproblemen of AI’s die data lekken. Toegegeven, die problemen zijn reëel, maar ze worden inmiddels heel actief en succesvol aangepakt. Hallucinaties nemen flink af door betere modellen / redeneringsvermogen en privacy wordt beter gewaarborgd via afgesloten omgevingen zoals Microsoft Copilot.

Maar in mijn optiek zitten de échte risico’s veel dieper. Niet in wat AI zegt, maar in wat het stilletjes doet. Wie wordt gevolgd, beoordeeld of uitgesloten door een algoritme? Welke beslissingen nemen machines al zonder dat we het doorhebben? Wat betekent dat voor onze rechtsstaat, arbeidsmarkt of mentale gezondheid?

Laatst mocht ik voor een overheidsorganisatie de hosanna- en hypeverhalen thuis laten en het personeel volledig bang maken met gefundeerde argumenten over waar ik zie dat er nog te weinig gebeurt om de uitwassen van AI tegen te gaan. Mijn top 7:

1. AI maakt desinformatie geloofwaardiger en gevaarlijker

Nepnieuws is niet nieuw, maar AI maakt het overtuigender én schaalbaarder. Tijdens de verkiezingen in Nederland in 2023 gingen deepfake-video’s van politici viraal. Een gemanipuleerde toespraak die nooit had plaatsgevonden werd duizenden keren gedeeld – vaak als ‘bewijs’. Ze zijn zo goed, dat ze ook door de controlefilters van de socialmedia-platformen heen komen.

Volgens onderzoek heeft 1 op de 3 Nederlanders moeite om echt van nep te onderscheiden. Onderzoek van de Universiteit Leiden toont aan dat mensen die meer gebruikmaken van social media en vatbaar zijn voor complottheorieën, beter zijn in het herkennen van deepfakes, wat suggereert dat anderen mogelijk kwetsbaarder zijn voor misinformatie.​

2. Van slimme stad naar controlestaat

Smart city-technologieën, zoals gezichtsherkenning en gedragsanalyse, bieden efficiëntie maar brengen ook risico’s met zich mee voor privacy en burgerrechten. In Amsterdam wordt geëxperimenteerd met slimme camera’s die afval op straat herkennen. En met algoritmen die tijdens de coronapandemie detecteerden of mensen voldoende afstand hielden. Hoewel deze technologieën bijdragen aan stadsbeheer, roepen ze ook vragen op over toezicht en privacy.​

3. Algoritmes kunnen systematisch discrimineren zonder dat we het doorhebben

Het gebruik van AI in sollicitatieprocedures kan leiden tot onbedoelde discriminatie. Het College voor de Rechten van de Mens stelt dat werkgevers verantwoordelijk blijven voor de uitkomsten van algoritmes en zich niet kunnen verschuilen achter technologie als er sprake is van ongelijke behandeling. Een onderzoek onder 896 Nederlandse werkgevers toonde aan dat het bewustzijn over de risico’s van algoritmische discriminatie laag is.

4. AI beslist soms dodelijk, zonder mens erbij

De ontwikkeling van autonome wapensystemen, ook wel ‘killer robots‘ genoemd, roept ethische en juridische vragen op. Volgens de Adviesraad Internationale Vraagstukken (AIV) en de Commissie van Advies inzake Volkenrechtelijke Vraagstukken (CAVV) moet Nederland zich nadrukkelijker bezighouden met de regulering van deze systemen. Er is bezorgdheid dat zonder duidelijke regelgeving de inzet van dergelijke wapensystemen kan leiden tot onvoorspelbare en mogelijk catastrofale gevolgen.

5. AI kan worden gemanipuleerd door een sticker op een stopbord

AI-systemen in het verkeer, zoals die voor zelfrijdende auto’s, zijn kwetsbaar voor manipulatie. In een onderzoek werden kleine stickers op stopborden geplakt, waardoor zelfrijdende auto’s deze verkeersborden niet meer als zodanig herkenden en ze interpreteerden als borden met een snelheidsbeperking. Hoewel dit specifieke voorbeeld niet uit Nederland komt, benadrukt het de noodzaak voor robuuste beveiligingsmaatregelen en voortdurende evaluatie van AI-systemen in kritieke infrastructuren.

6. AI verandert werk en niet iedereen wordt meegenomen

De opkomst van AI heeft aanzienlijke gevolgen voor de Nederlandse arbeidsmarkt. Volgens een rapport van PwC is meer dan 44% van de banen in Nederland in hoge of zeer hoge mate blootgesteld aan generatieve AI, zoals ChatGPT. Dit betekent dat bijna de helft van de huidige functies significant kan veranderen door de inzet van AI-technologieën.  

De veranderingen op de arbeidsmarkt hebben bredere maatschappelijke implicaties. Een rapport van de APG benadrukt dat het verlies van werk door AI kan leiden tot sociale uitsluiting en een gevoel van verlies van controle over het eigen leven. Zonder adequate ondersteuning en omscholingsmogelijkheden kunnen getroffen werknemers moeite hebben om opnieuw werk te vinden, wat kan resulteren in economische ongelijkheid en sociale spanningen.

7. AI beïnvloedt gedrag zonder dat je het merkt

AI-algoritmes op platforms zoals TikTok kunnen gebruikers onbewust sturen richting content die schadelijk is voor hun mentale gezondheid. Amnesty International waarschuwt dat de ‘Voor Jou’-pagina van TikTok na enkele uren gebruik een overweldigende hoeveelheid content toont die gerelateerd is aan mentale gezondheidsproblemen, wat zorgwekkende implicaties heeft voor jongeren. Dit onderstreept de noodzaak voor transparantie en regulering van algoritmische aanbevelingssystemen op social media-platforms.​

Wat kunnen we eraan doen?

Technology changes exponentially, but social, economic, and legal systems change incrementally – Larry Downes

Technologie ontwikkelt zich nu eenmaal altijd veel sneller dan wetgeving. Dat noemen ze ook wel het ‘pacing problem‘. Er wordt wereldwijd inmiddels keihard gewerkt aan regels en ethiek voor AI. De EU heeft de AI Act, de VS lanceert AI-principes en ook landen als Japan en Canada zetten kaders neer. Belangrijker nog: steeds meer AI-ontwikkelaars bouwen zelf ethische toetskaders in hun werk.

Bedrijven als OpenAI en Anthropic publiceren ‘red teaming’-verslagen en stellen hun modellen open voor toetsing. Maar dit is vaak nog een wassen neus in mijn optiek, want dit alles is nog volledig vrijwillig/vrijblijvend voor de bedrijven. Zonder duidelijke verplichtingen, onafhankelijke controle en stevige handhaving blijven we kwetsbaar.  Wat zijn dan wel oplossingen? Ik heb een aantal ideeën voor Nederland op een rij gezet.

Een wettelijk recht op menselijke toetsing

Een AI-systeem mag nooit als enige beslissen over zaken die diep ingrijpen in iemands leven: denk aan het toekennen van toeslagen, zorgtoegang, een lening of zelfs een juridische beoordeling. Mensen moeten altijd het recht hebben om uitleg te krijgen en om die beslissing te laten herzien door een mens. Dat klinkt misschien logisch, maar is nog lang niet vanzelfsprekend geregeld.

In de Europese AI Act wordt het belang van menselijke controle bij risicovolle systemen genoemd, maar een hard afdwingbaar burgerrecht bestaat nog niet. In de financiële sector wél: daar geldt al dat kredietbeslissingen op verzoek opnieuw door een mens moeten worden bekeken. Nederland kan dit als eerste expliciet vastleggen, bijvoorbeeld via een aparte AI-wet of als uitbreiding op bestuursrechtelijke waarborgen. Digitale ombudsdiensten kunnen vervolgens burgers laagdrempelig helpen bij bezwaar en toetsing.

Dat is geen administratieve luxe, maar een bescherming tegen onzichtbare macht. Zolang systemen mogen beslissen zonder dat je weet wie verantwoordelijk is, zijn rechten kwetsbaar.

Transparantie als bouwplicht

AI-systemen die niet uitlegbaar zijn, zouden niet in gebruik mogen worden genomen. Iedereen die een AI-systeem ontwikkelt of inzet – overheid of bedrijf – moet vooraf documenteren hoe het werkt:

  • wat het doel is
  • welke data zijn gebruikt
  • welke aannames erin zitten
  • hoe vaak het faalt
  • hoe gebruikers feedback kunnen geven.

In andere sectoren is dat volkomen normaal. Denk aan het CE-keurmerk in de bouw of techniek: zonder technische onderbouwing geen toegang tot de markt. Grote techbedrijven publiceren inmiddels vrijwillig ‘model cards’ met uitleg over hun AI, maar die zijn vaak summier en juridisch niet bindend.

Door wettelijk te eisen dat ieder systeem dat publieke of maatschappelijke impact heeft een ‘algoritmisch paspoort’ moet hebben, wordt transparantie een ontwerpeis. Dat maakt het mogelijk om systemen te vergelijken, te controleren, en – indien nodig – af te wijzen. Juist in een tijd waarin AI-beslissingen steeds minder zichtbaar worden, is inzicht geen extraatje, maar een voorwaarde voor vertrouwen.

Onafhankelijke AI-toezichtteams

Goed toezicht op AI vereist meer dan een adviescommissie of ethisch panel. Er is behoefte aan echte inspectieteams met doorzettingsmacht: professionals die AI-systemen kunnen onderzoeken, audits kunnen afdwingen en indien nodig systemen stil kunnen leggen. Die modellen bestaan in andere sectoren allang. Denk aan de Nederlandse Voedsel- en Warenautoriteit of de Inspectie Gezondheidszorg.

Voor AI ontbreekt zo’n autoriteit nog. De overheid zou een onafhankelijke toezichthouder kunnen oprichten met multidisciplinaire teams: van juristen en ethici tot datawetenschappers en gedragspsychologen. Die krijgen toegang tot overheidsdata én private systemen als die publieke invloed hebben. Ze kunnen meldplicht opleggen bij incidenten, patronen signaleren, en waar nodig ingrijpen. Waarom dat nodig is? Omdat veel AI-toepassingen zó complex zijn dat zelfs ontwikkelaars ze nauwelijks begrijpen. Als niemand controleert, groeit het risico op misbruik, discriminatie en onveiligheid tot het moment dat de schade onomkeerbaar is.

Een nationaal kennisinstituut voor AI

Als we AI willen gebruiken in het publieke belang, hebben we een publieke kennisbasis nodig. Een onafhankelijk instituut, vergelijkbaar met het RIVM, dat onderzoek doet naar de maatschappelijke impact van AI, dat systemen beoordeelt en burgers en beleidsmakers objectief informeert. Zoiets bestaat nog niet, maar zou kunnen voortbouwen op bestaande partijen als TNO of het Rathenau Instituut. Het instituut zou best practices verzamelen, modellen toetsen op transparantie, risico’s in kaart brengen en wetenschappers, journalisten en overheden voorzien van actuele kennis.

Cruciaal: het moet echt onafhankelijk opereren. Dus zonder commerciële of politieke sturing. Waarom dit dringend is? Omdat we nu vooral afhankelijk zijn van kennis die bij techbedrijven zelf zit. Maar wie de technologie ontwikkelt, moet niet ook degene zijn die bepaalt of het goed gaat. Publieke technologie vraagt om publieke toetsing en dat begint bij publieke kennis.

Verplichte AI-educatie vanaf schoolniveau

Om je staande te houden in een wereld waarin AI keuzes beïnvloedt, gedrag stuurt en zelfs bepaalt wat je ziet, moet je begrijpen hoe het werkt. Daarom zou AI-educatie een structureel onderdeel moeten worden van het onderwijs – al vanaf de basisschool. Niet alleen technisch, maar ook ethisch en maatschappelijk: wat doet AI met je wereldbeeld, met privacy, met je rechten?

Finland is op dit vlak voorloper, met brede AI-lessen voor jongeren én volwassenen. In Nederland zijn er pilots en enthousiaste initiatieven, maar het ontbreekt aan samenhang en structurele ondersteuning. Het ministerie van OCW zou in samenwerking met de Nederlandse AI Coalitie een nationaal curriculum kunnen opstellen, inclusief leermiddelen, training voor docenten en betrokkenheid van het bedrijfsleven.

Want als we willen dat burgers later kritisch, weerbaar en vrij blijven in een wereld vol slimme systemen, moeten we ze die vaardigheden al jong aanleren. Digitale geletterdheid is niet optioneel, het is het nieuwe burgerschap.

De echte AI-vraag: wie stuurt wie?

Als we nu niets doen, groeit AI buiten ons om. Dan bouwen we systemen die mensen beoordelen, selecteren en sturen zonder dat we begrijpen hoe of waarom. De toeslagenaffaire zou dan geen pijnlijk incident meer zijn, maar het begin van een patroon waarin technologie menselijke schade veroorzaakt zonder dat iemand nog verantwoordelijk is. Niet uit kwade wil, maar uit gemak, onwetendheid en een gebrek aan regie.

Wat als we het nu eens anders proberen te doen? Dat we technologie beschouwen als een publiek vraagstuk, niet als een marktproduct. Dat we ethiek niet aan de achterkant toevoegen, maar vanaf de eerste regel code integreren. En dat we toezicht durven organiseren, recht durven beschermen, en jongeren leren hoe ze zichzelf kunnen wapenen tegen manipulatie door slimme systemen. Dan is AI geen bedreiging, maar een bondgenoot in het bouwen van een menswaardige samenleving.

De toekomst van AI is geen technisch verhaal. Het is een democratisch verhaal. Een rechtvaardigheidsvraag. Die ligt in mijn optiek niet in de handen van machines, maar in die van ons.

admin

Jan Scheele werkt dertien jaar op het snijvlak van deep tech, strategie en leiderschap. Als keynote spreker en dagvoorzitter maakt hij technologie tastbaar voor boardrooms, directieteams en grote podia, zonder de complexiteit te versimpelen of te verbergen achter buzzwords.

Zijn achtergrond ligt in het bouwen. Als CEO van een technologie scale-up, oprichter van meerdere techbedrijven en organisator van meer dan vijftig TED-events wereldwijd zag hij van dichtbij hoe technologische keuzes doorwerken in strategie, governance en cultuur. Vanuit zijn betrokkenheid bij het World Economic Forum en de BCNL Foundation kijkt hij daarbij niet alleen naar wat technisch mogelijk is, maar ook naar wat bestuurlijk houdbaar en maatschappelijk wenselijk is.

Hij publiceerde vijf boeken, waarvan twee Amazon-bestsellers, en schrijft wekelijks over AI, blockchain en de organisatorische gevolgen van deep tech. Zijn blogs bereikten inmiddels meer dan twee miljoen lezers.

Meta’s AI-app maakt kunstmatige intelligentie sociaal – en dat is groter dan het lijkt

AI was jarenlang een soort individuele ervaring. Jij en een chatbot, op je laptop of telefoon, in een soort één-op-één gesprek. Maar wat als AI net zo sociaal wordt als Instagram of Spotify? Meta’s nieuwe AI-app doet precies dat: het maakt kunstmatige intelligentie onderdeel van je sociale netwerk. En dat is even wennen – maar misschien ook een gamechanger.

Wat doet de app? Je kunt ermee praten, tekst genereren, plaatjes maken, je slimme bril koppelen… niets nieuws onder de zon, zou je zeggen. Maar het verschil zit ‘m in de Discover-feed. Die laat zien wat anderen doen met AI. Prompts, vragen, beelden – alles wat mensen delen – kun je bekijken, liken, aanpassen of zelf gebruiken. Een soort TikTok, maar dan niet voor dansjes, maar voor AI-ideeën.

Waarom doet Meta dit? Omdat het iets goed begrijpt: AI is pas écht krachtig als het gedeeld wordt. In plaats van zelf eindeloos sleutelen aan de perfecte prompt, kun je straks gewoon zien hoe anderen het aanpakken. Net zoals je muziek deelt op Spotify of recepten op Pinterest. En als bedrijf met miljarden gebruikers is Meta perfect gepositioneerd om daar een platform voor te bouwen.

Wat is er goed aan? De technologie is indrukwekkend. Gebouwd op Llama 4 – het eigen AI-model van Meta – is de app snel, persoonlijk en spraakgestuurd. Je kunt wisselen tussen tekst, beeld en stem, en als je een Meta-bril hebt, loopt het gesprek gewoon mee van bril naar telefoon naar desktop. De AI onthoudt wat jij belangrijk vindt – van je vakantieplannen tot je voorkeur voor vegetarisch eten – en maakt antwoorden steeds persoonlijker.

Maar er zijn kanttekeningen. De app is voorlopig alleen in een paar Engelstalige landen volledig beschikbaar. En belangrijker: die persoonlijke ervaring vraagt om data. Veel data. Van wat je post op Facebook tot wie je volgt op Instagram. Volgens Meta gebeurt dat alleen met toestemming, en je kunt instellen wat je wel of niet deelt. Maar feit blijft: hoe persoonlijker de AI, hoe meer je moet prijsgeven. En dat roept vragen op over privacy, zeggenschap en transparantie – zeker gezien Meta’s verleden.

Dan is er nog het sociale aspect zelf. Want hoe zinvol is het om door de AI-gesprekken van anderen te scrollen? Voor de een een bron van inspiratie, voor de ander vooral chaos of zelfs onbedoeld oversharing. De waarde van die feed hangt dus sterk af van de community eromheen.

En hoe betrouwbaar is de AI eigenlijk? In tests maakt Meta’s assistent nog regelmatig simpele fouten – van verkeerde rekenantwoorden tot kromme logica. Dat is niet uniek voor Meta, maar het onderstreept wel dat deze app nog niet klaar is voor serieuze toepassingen zoals zorg of juridische hulp. Het is een consumentenproduct – voor nu vooral bedoeld om te ontdekken, spelen en experimenteren.

Dus wat is het eindoordeel? De nieuwe Meta AI-app is geen simpele ChatGPT-kloon. Het is een strategische zet die AI uit het isolement haalt en onderdeel maakt van het sociale web. Dat is slim, ambitieus, en ook een tikje spannend. Want als AI net zo invloedrijk wordt als sociale media, moeten we extra goed nadenken over regels, bescherming en zeggenschap.

Meta heeft met deze app misschien niet het slimste AI-model, maar wel het grootste podium. En dat kan de manier waarop we AI gebruiken – en samen beleven – definitief veranderen. De toekomst van AI wordt niet alleen slimmer. Ze wordt ook… socialer.

admin

Jan Scheele werkt dertien jaar op het snijvlak van deep tech, strategie en leiderschap. Als keynote spreker en dagvoorzitter maakt hij technologie tastbaar voor boardrooms, directieteams en grote podia, zonder de complexiteit te versimpelen of te verbergen achter buzzwords.

Zijn achtergrond ligt in het bouwen. Als CEO van een technologie scale-up, oprichter van meerdere techbedrijven en organisator van meer dan vijftig TED-events wereldwijd zag hij van dichtbij hoe technologische keuzes doorwerken in strategie, governance en cultuur. Vanuit zijn betrokkenheid bij het World Economic Forum en de BCNL Foundation kijkt hij daarbij niet alleen naar wat technisch mogelijk is, maar ook naar wat bestuurlijk houdbaar en maatschappelijk wenselijk is.

Hij publiceerde vijf boeken, waarvan twee Amazon-bestsellers, en schrijft wekelijks over AI, blockchain en de organisatorische gevolgen van deep tech. Zijn blogs bereikten inmiddels meer dan twee miljoen lezers.

3 manieren hoe overheden AI inzetten tégen burgers

3 manieren hoe overheden AI inzetten tégen burgers

Kunstmatige intelligentie wordt wereldwijd door overheden ingezet — maar steeds vaker niet vóór de burger, maar tegen hem. Denk aan surveillancesystemen, deportatie-algoritmes en militaire doelen die door AI worden geselecteerd. Het wrange is: ondanks de lessen van de Toeslagenaffaire, waarin geautomatiseerde systemen duizenden levens verwoestten, lijkt er nauwelijks iets veranderd. Transparantie ontbreekt, toezicht is minimaal, en de gevolgen zijn vaak niet te herstellen. Toch blijft de technologie oprukken, met grote gevolgen voor mensenrechten, privacy en zelfs levens.

Neem de Verenigde Staten. Sinds kort wordt AI actief gebruikt bij het opsporen en deporteren van mensen zonder verblijfsvergunning. Via een netwerk van databases en voorspellende algoritmes worden mensen gevolgd, geprofileerd en automatisch aangemerkt als “risico.” Deze aanpak komt voort uit het idee dat technologie objectiever zou zijn dan mensen. Maar klopt dat wel? Volgens burgerrechtenorganisaties leidt het vooral tot fouten en discriminatie. Er is nauwelijks transparantie, en mensen die onterecht op een lijst belanden, hebben vaak geen idee hoe ze daar überhaupt op gekomen zijn.

In Israël zien we een ander, nog schrijnender voorbeeld. Tijdens militaire operaties in Gaza maakte het Israëlische leger gebruik van AI-systemen met namen als Lavender en Gospel. Deze systemen helpen bij het selecteren van doelen, soms binnen seconden. Dat klinkt efficiënt, maar het roept fundamentele vragen op. Want hoe zeker weet je dat een algoritme het verschil kan zien tussen een militant en een burger? Volgens een recent artikel in de Financial Times accepteerde het leger een foutmarge van 10%. Bij technologie die over leven en dood beslist, is dat geen bijzaak.

Ook in de VS groeit het gebruik van zogeheten “AI-persona’s” in de opsporing. In een programma met de naam BlueOverwatch creëren veiligheidsdiensten digitale versies van verdachten. Deze avatars worden geanalyseerd om hun gedrag te voorspellen, nog vóór ze iets strafbaars hebben gedaan. Het doet denken aan sciencefiction, maar is vandaag al praktijk. Volgens de ontwikkelaars zou het gaan om “proactieve veiligheid.” Tegelijkertijd waarschuwen experts: dit is een glijdende schaal naar permanente surveillance, zonder duidelijke spelregels of toezicht.

De cijfers onderschrijven dat we hier niet te licht over moeten denken. Uit onderzoek van Stanford blijkt dat wereldwijd 75 van de 176 onderzochte landen al AI inzetten voor surveillance-doeleinden, vaak zonder duidelijke wetgeving. En volgens Freedom House zijn we al negen jaar op rij bezig aan een wereldwijde daling van digitale vrijheid.

Moeten we dan stoppen met AI? Nee, absoluut niet. De technologie zelf is niet het probleem. Het gaat erom hoe we het gebruiken – en vooral wie er de controle over heeft. AI kan overheden helpen slimmer, eerlijker en efficiënter te werken. Maar zonder duidelijke grenzen, toezicht en publieke discussie ligt misbruik op de loer.

Het is tijd dat we verder kijken dan hype en belofte. AI vraagt niet alleen om slimme programmeurs, maar ook om scherpe democratische keuzes.

admin

Jan Scheele werkt dertien jaar op het snijvlak van deep tech, strategie en leiderschap. Als keynote spreker en dagvoorzitter maakt hij technologie tastbaar voor boardrooms, directieteams en grote podia, zonder de complexiteit te versimpelen of te verbergen achter buzzwords.

Zijn achtergrond ligt in het bouwen. Als CEO van een technologie scale-up, oprichter van meerdere techbedrijven en organisator van meer dan vijftig TED-events wereldwijd zag hij van dichtbij hoe technologische keuzes doorwerken in strategie, governance en cultuur. Vanuit zijn betrokkenheid bij het World Economic Forum en de BCNL Foundation kijkt hij daarbij niet alleen naar wat technisch mogelijk is, maar ook naar wat bestuurlijk houdbaar en maatschappelijk wenselijk is.

Hij publiceerde vijf boeken, waarvan twee Amazon-bestsellers, en schrijft wekelijks over AI, blockchain en de organisatorische gevolgen van deep tech. Zijn blogs bereikten inmiddels meer dan twee miljoen lezers.

OpenAI bouwt aan een eigen socialmedia-platform: slimme zet of AI-hype ten top?

OpenAI bouwt aan een eigen socialmedia-platform: slimme zet of AI-hype ten top?

OpenAI – het bedrijf achter ChatGPT – werkt aan een eigen socialmedia-platform. Dat werd onlangs bekend via een reeks tweets, lekken en opvallende discussies op fora als Hacker News. Wat begon als een gerucht, lijkt inmiddels serieuzer dan gedacht. Er schijnt al een intern prototype te zijn, waarin gebruikers AI-beelden kunnen posten in een soort Instagram-achtige feed. In dit artikel duik ik er op in!

Mijn eerste vraag was waarschijnlijk net als vele anderen: waarom zou een AI-bedrijf zich in hemelsnaam storten op een toch al overvolle markt van sociale netwerken? Is dit een briljant strategisch idee, of een dure afleiding van waar het écht om draait? De eerste signalen van dit plan kwamen van The Verge, dat meldde dat OpenAI werkt aan een sociaal platform waarbij beeldgeneratie via ChatGPT centraal staat.

Denk: je maakt een Ghibli-achtige AI-afbeelding, klikt op ‘post’, en deelt het met je volgers in een feed. Sam Altman, CEO van OpenAI, zou achter de schermen al feedback verzamelen van vertrouwelingen over het idee.

Dat Altman hierover nadenkt, is eigenlijk geen verrassing. Al in februari reageerde hij op een bericht over Meta’s AI-plannen met de woorden: “Ok fine maybe we’ll do a social app.” Het klonk toen nog als een losse grap, maar inmiddels lijkt het een serieuze strategie. Combineer dat met het feit dat OpenAI al experimenteert met een publieke AI-feed op Sora.com, en het plaatje begint te kloppen.

Waarom dit wél een goed idee kan zijn

De afgelopen dagen heb ik talloze fora als Reddit en Hackenews gelezen, om eens een weloverwogen mening te krijgen over dit plan. Toegegeven, er zitten heel wat interessante kanten aan.

1. Vers bloed in de data

OpenAI heeft continu nieuwe, échte gebruikersdata nodig om zijn modellen te verbeteren. En nu steeds meer data op het internet óf achter betaalmuren verdwijnt, óf besmet raakt met AI-gegenereerde content, is een eigen datastroom goud waard. Een sociaal netwerk waarbij mensen zelf actief posten, reageren en delen, biedt precies dat.

2. Creatieve co-creatie

In plaats van eindeloze ruzies over politiek of virale filmpjes, kan een AI-gedreven platform juist draaien om expressie en creativiteit. Denk aan posts die zijn ontstaan uit een samenwerking tussen mens en machine. Dat is een ander uitgangspunt dan bestaande netwerken en potentieel verfrissend.

3. Altijd een digitale sparringpartner

Stel je voor: een platform waar je een gedachte typt, en de AI helpt je het scherper, visueler of interessanter te maken. Dat is geen social media zoals we die nu kennen, dat is een persoonlijke assistent in je contentproces. Daar zit potentie. Dat zie je nu bijvoorbeeld ook al gebeuren bij kanalen als Instagram en Whatsapp, waar dit soort functies worden toegevoegd.

Een nieuw netwerk… of een herhaling van fouten uit het verleden?

Maar er zijn ook genoeg redenen, waarom dit kan uitlopen op een tweede Google Plus-momentje.

1. De verzadigde markt

We hebben al X (voorheen Twitter), Threads, Mastodon, Bluesky, Reddit, Discord, Instagram… de lijst is eindeloos. Waarom zouden gebruikers nóg een netwerk moeten omarmen, zeker als het (deels) bevolkt wordt door bots? Ik merk het ook al bij mezelf, dat ik juist in aantal actieve kanalen ben gedaald, om meer focus te krijgen.

2. AI als sociale illusie

Een netwerk vol posts van en gesprekken met AI’s klinkt misschien fascinerend, maar voelt in mijn optiek ook snel hol aan. Veel mensen waarderen sociale netwerken, omdat er echte mensen achter zitten. Als die menselijke laag ontbreekt, blijft er in mijn optiek weinig emotionele waarde over.

3. Privacy en vertrouwen

OpenAI ligt nu al onder vuur vanwege het gebruik van trainingsdata zonder duidelijke toestemming. Als het bedrijf straks ook je sociale posts meeleest – al dan niet met toestemming – hoe transparant en eerlijk blijft dat? En wie bepaalt eigenlijk wat je wél of niet mag delen op een netwerk gebouwd door een AI-bedrijf?

4. Verlies van focus bij OpenAI

Als ik even mijn startup-coach-pet opzet: OpenAI is in de kern een AI-onderzoeks, en productbedrijf. Door nu ook een sociaal netwerk te bouwen, inclusief moderatie, growth hacking, community building en alles wat daarbij komt kijken, dreigt het bedrijf zich te vertillen. Resources die nu naar fundamentele AI-ontwikkeling gaan, kunnen versnipperen over een project dat ver buiten hun oorspronkelijke expertise ligt. In een markt waar concurrentie op modelkwaliteit, betrouwbaarheid en snelheid toeneemt, kan dit afleiden van de kernmissie en OpenAI op achterstand zetten.

Tussen droom en datahonger

Of dit een goed idee is, hangt af van je perspectief. Voor OpenAI is het strategisch slim: het levert gebruikersdata, zichtbaarheid, en een manier om het gebruik van hun tools in het dagelijks leven verder te verankeren. Maar voor gebruikers is het spanningsveld groter. Willen we nóg een platform? En nog belangrijker: willen we dat platform vullen met onze gedachten, beelden en gesprekken, wetende dat die mogelijk meegetraind worden in een AI-systeem?

Als dit netwerk erin slaagt een meer positieve, creatieve en AI-ondersteunde vorm van online interactie te bieden, kan het in mijn optiek veel waarde toevoegen. Maar als het slechts een slimmere datafuik wordt, vol AI-content en zonder menselijke ziel, dan haken mensen net zo snel af als ze kwamen.

Wanneer gaan we meer horen?

Voorlopig is er nog niets officieel aangekondigd, maar de richting is duidelijk. De AI-image-feed van Sora lijkt een eerste publieke test. Het ligt voor de hand dat OpenAI de komende maanden experimenteert met kleine functies binnen ChatGPT zelf, zoals het delen van gegenereerde content met anderen, voordat het eventueel losgaat met een aparte app.

Of dit nieuwe netwerk daadwerkelijk gebruikers weet te binden, hangt af van één ding: voegt het écht iets toe aan hoe we nu online met elkaar omgaan? Als het blijft bij een AI-behangen variant van bestaande netwerken, zal de hype snel verdampen. Maar als het lukt om co-creatie en interactie met AI een menselijker gezicht te geven, zou OpenAI zomaar een nieuw soort online ruimte kunnen neerzetten.

admin

Jan Scheele werkt dertien jaar op het snijvlak van deep tech, strategie en leiderschap. Als keynote spreker en dagvoorzitter maakt hij technologie tastbaar voor boardrooms, directieteams en grote podia, zonder de complexiteit te versimpelen of te verbergen achter buzzwords.

Zijn achtergrond ligt in het bouwen. Als CEO van een technologie scale-up, oprichter van meerdere techbedrijven en organisator van meer dan vijftig TED-events wereldwijd zag hij van dichtbij hoe technologische keuzes doorwerken in strategie, governance en cultuur. Vanuit zijn betrokkenheid bij het World Economic Forum en de BCNL Foundation kijkt hij daarbij niet alleen naar wat technisch mogelijk is, maar ook naar wat bestuurlijk houdbaar en maatschappelijk wenselijk is.

Hij publiceerde vijf boeken, waarvan twee Amazon-bestsellers, en schrijft wekelijks over AI, blockchain en de organisatorische gevolgen van deep tech. Zijn blogs bereikten inmiddels meer dan twee miljoen lezers.

Waarom ChatGPT soms onzin praat – en hoe je dat voorkomt

Waarom ChatGPT soms onzin praat – en hoe je dat voorkomt

Het gebeurt ons allemaal wel eens: je stelt een vraag aan ChatGPT, krijgt een antwoord, maar na wat verder nadenken blijkt het gewoon niet te kloppen. Wat is er aan de hand, en hoe kunnen we ervoor zorgen dat de antwoorden die we krijgen betrouwbaarder zijn? Het is en blijft een van de meest besproken topics in mijn AI trainingen, dusduik ik in deze nieuwsbrief in de wereld van AI-hallucinaties, en hoe we deze kunnen voorkomen.

Hoe werkt GPT ook alweer?

ChatGPT is een taalmodel ontwikkeld door OpenAI. Het werkt door te voorspellen welk woord volgt op het vorige in een tekst, gebaseerd op enorm veel data. Maar, in tegenstelling tot mensen, begrijpt ChatGPT niet echt wat het zegt. Het is als een slimme robot die tekst na-aapt zonder de betekenis erachter te begrijpen. Dit is zowel een kracht als een zwakte van AI. Het maakt ChatGPT creatief, maar soms ook onnauwkeurig.

Maar hoe maakt het dan fouten?

Volgens een studie uit januari 2025, komt ongeveer 1,8% van de antwoorden van GPT-4 onterecht over, zoals feitelijke onjuistheden of hallucinaties, vooral in meer technische domeinen. (Vectara, 2025) De cijfers variëren echter sterk per model en toepassing. In sommige gespecialiseerde domeinen zoals wetgeving of medische zaken, kunnen de hallucinaties oplopen tot 50% van de tijd. (Nature, 2025) Dus, hoewel het model indrukwekkend is, kan het nog steeds veel fouten maken.

AI-hallucinaties kunnen ernstige gevolgen hebben, vooral wanneer mensen vertrouwt worden op verkeerde informatie:

  1. De ‘moordenaar’ die geen moordenaar was
    Een Noorse gebruiker ontdekte dat ChatGPT hem beschreef als een veroordeelde moordenaar van zijn kinderen, terwijl dit volledig verzonnen was. De schade aan zijn reputatie was enorm, en de zaak leidde tot een klacht bij de autoriteiten. 
  2. De niet-bestaande rechtszaak
    In 2023 gebruikte een Amerikaanse advocaat ChatGPT om juridische referenties te vinden, maar het model gaf hem foutieve juridische cases. Deze “foutieve” bronnen werden uiteindelijk gebruikt in een rechtszaak, wat leidde tot boetes voor het indienen van onjuiste informatie.
  3. Verkeerde medische informatie
    In medische toepassingen kan het model soms verkeerde diagnostische informatie geven, wat ernstige gevolgen kan hebben voor patiëntenzorg. Medische professionals hebben gemeld dat AI-hallucinaties hun werk bemoeilijken, vooral bij het stellen van diagnoses.
  4. Feitelijke fouten in wetenschappelijke literatuur
    Een 2024-studie toonde aan dat ChatGPT, wanneer het werd gevraagd naar wetenschappelijke artikelen, regelmatig foutieve auteurs en publicatiejaren vermeldde. Dit is niet alleen verwarrend, maar kan ook de wetenschappelijke integriteit schaden. 
  5. Verkeerde samenvattingen in nieuws
    AI-modellen werden gebruikt om nieuwsartikelen samen te vatten, maar gaven vaak onjuiste of misleidende informatie. Dit leidde zelfs tot een rechtszaak tegen OpenAI voor het verspreiden van valse informatie via ChatGPT. 

Hoe voorkom je dat ChatGPT onzin praat?

Gelukkig zijn er manieren om deze fouten te minimaliseren. 
Een aantal tips die ik altijd mee geef in mijn AI-trainingen:

  1. Wees duidelijk en specifiek in je prompts
    Hoe specifieker je vraagt, hoe groter de kans op een correct antwoord. In plaats van “Vertel me iets over de aarde”, kun je beter vragen “Waarom is de lucht blauw?” Dit dwingt ChatGPT om de context goed te begrijpen.
  2. Gebruik Chain-of-Thought (COT) redeneren
    Door ChatGPT stap voor stap te laten nadenken, kun je de kans op fouten verkleinen. Vraag bijvoorbeeld eerst: “Wat is de lucht?” en laat het model verder redeneren naar het specifieke antwoord. Dit helpt het model om complexere antwoorden te geven zonder in de war te raken.
  3. Controleer de feiten
    Zelfs de beste AI-modellen kunnen fouten maken. Controleer altijd belangrijke informatie met betrouwbare externe bronnen zoals nieuwswebsites of wetenschappelijke publicaties. Een simpele zoekopdracht kan soms wonderen doen.
  4. Gebruik Retrieval-Augmented Generation (RAG)
    Deze techniek maakt gebruik van externe databronnen, zoals wetenschappelijke databases of juridische documenten, om de antwoorden van AI te valideren en te verbeteren. Het is vooral handig in domeinen die afhankelijk zijn van precisie, zoals de geneeskunde of wetgeving. (nature.com)

De technologie blijft zich snel ontwikkelen. Er worden steeds meer technieken ontwikkeld om AI-hallucinaties te verminderen. Sommige AI-modellen worden bijvoorbeeld getraind om een soort ‘zelfreflectie’ toe te passen en hun antwoorden af te stemmen op de betrouwbaarheid van hun kennis. Ook wordt er steeds vaker gebruikgemaakt van fact-checking systemen die helpen om de waarheid te verifiëren. 

Maar zelfs met deze verbeteringen blijft het een uitdaging om volledig foutloze AI te creëren. Daarom is het belangrijk om altijd kritisch te blijven en AI als hulpmiddel te gebruiken, niet als de ultieme bron van waarheid.

admin

Jan Scheele werkt dertien jaar op het snijvlak van deep tech, strategie en leiderschap. Als keynote spreker en dagvoorzitter maakt hij technologie tastbaar voor boardrooms, directieteams en grote podia, zonder de complexiteit te versimpelen of te verbergen achter buzzwords.

Zijn achtergrond ligt in het bouwen. Als CEO van een technologie scale-up, oprichter van meerdere techbedrijven en organisator van meer dan vijftig TED-events wereldwijd zag hij van dichtbij hoe technologische keuzes doorwerken in strategie, governance en cultuur. Vanuit zijn betrokkenheid bij het World Economic Forum en de BCNL Foundation kijkt hij daarbij niet alleen naar wat technisch mogelijk is, maar ook naar wat bestuurlijk houdbaar en maatschappelijk wenselijk is.

Hij publiceerde vijf boeken, waarvan twee Amazon-bestsellers, en schrijft wekelijks over AI, blockchain en de organisatorische gevolgen van deep tech. Zijn blogs bereikten inmiddels meer dan twee miljoen lezers.

Iedereen kan nu een deepfake maken – maar kun jij het herkennen? (3 tips)

Je hebt geen studio nodig. Geen green screen. Geen acteur. En geen Hollywood-budget. Alleen een paar foto’s, een script, en een paar klikken. In nog geen 10 minuten kun jij vandaag een deepfake maken die zó echt lijkt, dat zelfs je moeder erin trapt. 

Klinkt als sciencefiction of enkel voor tech experts? Nope. Het is 2025. En de tools zijn gewoon te koop. Neem bijvoorbeeld HeyGen. Je uploadt een foto, typt een tekst in, kiest een stem – en binnen een paar minuten praat jouw gezicht met jouw stem. Of iemand anders’ gezicht met jouw stem. Of jouw gezicht met iemand anders’ stem. You get the idea. Dat gebeurde laatst bijna bij de moeder van een vriend van mij. Zij dacht dat haar zoon belde. Maar het bleek een scammer te zijn, die zijn stem had gekloond. 

Of Synthesia. Daar kies je uit een hele galerij aan menselijke avatars. Upload je script en… klaar. Jij of iemand anders staat daar ineens een perfect gearticuleerde video toe te spreken – in 40 talen, met natuurlijke mimiek en oogbewegingen.

Wil je nog een stapje verder? DeepFaceLab laat je gezichten 1-op-1 verwisselen in bestaande video’s. Denk aan een filmfragment, een interview of een toespraak. Vervang het gezicht, pas de stem aan, en klaar ben je.

En het blijft niet bij video. GPT-modellen kunnen nu zelfs geloofwaardige valse documenten maken. In India is onlangs ontdekt dat je met simpele prompts nepaadhaar- en PAN-kaarten kon genereren — het digitale identiteitsbewijs waar miljoenen mensen op vertrouwen. Een ramp in wording voor digitale fraude.

Dat klinkt heftig. En dat ís het ook. Want dit is geen toekomstmuziek meer.

Ferrari beleefde vorig jaar bijna z’n eigen deepfake-crisis. Een nep-CEO belde medewerkers met een nagemaakte stem, en vroeg om gevoelige informatie. Het klonk zó echt dat de alarmbellen pas laat gingen rinkelen. Uiteindelijk werd de oplichter ontmaskerd, maar het had net zo goed fout kunnen aflopen.

Ook in Nederland neemt het aantal deepfake-fraudes snel toe. Volgens een recent onderzoek van Nederland Digitaal zijn valse video’s, stemmen en identiteitsbewijzen in opmars als fraudemiddel. Criminelen gebruiken AI om geloofwaardige leugens te fabriceren — en bedrijven én burgers trappen erin. We hebben het niet meer over phishing-mails met spelfouten, maar over hyperrealistische CEO’s die je bellen met een dringend verzoek.

Dus: wat kun je doen?

Eén: Check de bron. Als je een video of stem hoort met een opvallend verzoek, neem altijd apart contact op via een ander kanaal. Geen WhatsApp, maar een belletje. Geen mail, maar een videocall.

Twee: Let op het onmenselijke. Deepfakes zijn goed, maar nog niet perfect. Let op rare knipperpatronen, houterige gezichtsbewegingen of emoties die nét niet kloppen. Bij stemdeepfakes: een monotone toon, onlogisch ritme, of opvallend slechte geluidskwaliteit zijn rode vlaggen.

Drie: Train je team. Of je nu ondernemer bent, HR’er of finance professional: zorg dat je collega’s weten wat deepfakes zijn en hoe ze klinken of eruitzien. Een klein stukje awareness kan duizenden euro’s of je reputatie schelen.

De technologie is hier. De drempel is weg. En het verschil tussen echt en nep vervaagt steeds sneller.

Dus als je morgen een video ziet die “te goed is om waar te zijn”? Check even twee keer. Of drie. Want een deepfake maken… dat kan tegenwoordig iedereen. De vraag is: kun jij het nog herkennen?

admin

Jan Scheele werkt dertien jaar op het snijvlak van deep tech, strategie en leiderschap. Als keynote spreker en dagvoorzitter maakt hij technologie tastbaar voor boardrooms, directieteams en grote podia, zonder de complexiteit te versimpelen of te verbergen achter buzzwords.

Zijn achtergrond ligt in het bouwen. Als CEO van een technologie scale-up, oprichter van meerdere techbedrijven en organisator van meer dan vijftig TED-events wereldwijd zag hij van dichtbij hoe technologische keuzes doorwerken in strategie, governance en cultuur. Vanuit zijn betrokkenheid bij het World Economic Forum en de BCNL Foundation kijkt hij daarbij niet alleen naar wat technisch mogelijk is, maar ook naar wat bestuurlijk houdbaar en maatschappelijk wenselijk is.

Hij publiceerde vijf boeken, waarvan twee Amazon-bestsellers, en schrijft wekelijks over AI, blockchain en de organisatorische gevolgen van deep tech. Zijn blogs bereikten inmiddels meer dan twee miljoen lezers.

Je slimste collega is geen mens (meer)

Je slimste collega is geen mens (meer)

Je kent ze wel: die slimste collega die altijd snacks meeneemt naar vergaderingen en precies weet wanneer jij even vastloopt. Maar wat als ik je vertel dat jouw meest waardevolle teamgenoot straks géén mens is… maar een AI?

Volgens een nieuwe studie van Harvard en Procter & Gamble is AI niet zomaar een slimme tool, maar een échte cybernetic teammate – een digitale collega die meedenkt, meehelpt én je gelukkiger maakt op je werk. Wacht, wat?

776 professionals deden mee aan een grootschalig experiment. Sommigen werkten alleen, anderen in duo’s. En de helft kreeg toegang tot ChatGPT-4 of GPT-4o. De resultaten? Iemand die alleen werkt mét AI presteert net zo goed als een team van twee zonder AI. Een team mét AI levert vaker top-oplossingen, werkt sneller, en schrijft méér én beter. En misschien nog verrassender: mensen voelden zich blijer, energieker én minder gestrest als ze AI gebruikten. Ja, echt.

Zonder AI bleven specialisten keurig in hun hokje: de R&D’er dacht technisch, de marketeer dacht commercieel. Maar met AI? Kregen ze ineens ideeën buiten hun eigen vakgebied. Het is alsof AI je helpt om ‘even iemand anders te zijn’ – met een bredere blik. Zelfs mensen met minder ervaring presteerden op het niveau van senior collega’s. AI maakte van ‘de junior’ ineens een expert-in-wording. En dat zorgt voor iets bijzonders: meer gelijkheid, meer samenwerking, en méér kansen.

Er zit wel een maar aan dit mooie verhaal. Want als je AI alleen gebruikt om je werk over te nemen – zonder zelf nog na te denken – dan verslapt je kritisch vermogen. Onderzoeken tonen dat wie té afhankelijk wordt van AI, minder creatief én minder scherp wordt. Dus: gebruik AI niet als kruk, maar als sparringpartner. Stel vragen, denk mee, daag het uit. Dan word jij er ook écht slimmer van.

De grote les? AI verandert niet alleen wat we doen op werk, maar hoe we samenwerken. Het is geen spreadsheet 2.0, het is een slimste collega 2.0. Een cyber-collega die niet klaagt, niet luncht, maar wél helpt om beter werk te leveren. Dus de volgende keer dat je denkt: “Kan AI dit voor me doen?” Vraag jezelf dan af: “Kan AI dit samen met mij doen?” Want misschien zit je beste collega straks… in je laptop.

admin

Jan Scheele werkt dertien jaar op het snijvlak van deep tech, strategie en leiderschap. Als keynote spreker en dagvoorzitter maakt hij technologie tastbaar voor boardrooms, directieteams en grote podia, zonder de complexiteit te versimpelen of te verbergen achter buzzwords.

Zijn achtergrond ligt in het bouwen. Als CEO van een technologie scale-up, oprichter van meerdere techbedrijven en organisator van meer dan vijftig TED-events wereldwijd zag hij van dichtbij hoe technologische keuzes doorwerken in strategie, governance en cultuur. Vanuit zijn betrokkenheid bij het World Economic Forum en de BCNL Foundation kijkt hij daarbij niet alleen naar wat technisch mogelijk is, maar ook naar wat bestuurlijk houdbaar en maatschappelijk wenselijk is.

Hij publiceerde vijf boeken, waarvan twee Amazon-bestsellers, en schrijft wekelijks over AI, blockchain en de organisatorische gevolgen van deep tech. Zijn blogs bereikten inmiddels meer dan twee miljoen lezers.

Mijn wekelijkse

Shot inspiratie

Elke week ontvangen 400+ mensen een shot deep-tech inspiratie. Ook ontvangen? Schrijf je hier rechts gratis in.

Ik spam nooit en gebruik het mailadres
alleen voor deze nieuwsbrief.

Copyright © 2026 Jan Scheele

Ook elke week een shot deeptech inspiratie?

Meld je aan om elk weekend een gratis shot inspiratie te ontvangen in de mailbox.

Ik spam nooit en gebruik het mailadres
alleen voor deze nieuwsbrief.

Paid Search Marketing
Search Engine Optimization
Email Marketing
Conversion Rate Optimization
Social Media Marketing
Google Shopping
Influencer Marketing
Amazon Shopping
Explore all solutions