In korte tijd heeft het Chinese DeepSeek de spelregels voor de wereldwijde AI-ontwikkelingen herschreven. Waar de Verenigde Staten flink domineerden in de ontwikkelingen van AI op alle vlakken, heeft een kleine startup uit het Chinese Hangzhou de afgelopen dagen een schokgolf veroorzaakt wereldwijd. In dit artikel duik ik op dit nieuwe model en ging het zelf een paar dagen testen.
De lancering van DeepSeek kan gezien worden als een prachtig Sputnik-moment. Een onverwachte doorbraak die de wereld wakker schudt en een nieuw tijdperk van technologische vooruitgang inluidt. Net zoals de Sovjet-Unie in 1957 de eerste satelliet, Sputnik, lanceerde en daarmee het startschot gaf voor de ruimtewedloop, markeert DeepSeek het begin van een nieuwe fase in de AI-wedloop.
Ik had in november al met een eerdere versie van DeepSeek gespeeld, maar vond die nog niet zo spannend. Van hoe de nieuwste versie zich verhoudt tot de Amerikaanse concurrenten, sla ik echter stijl achterover.
Hoe DeepSeek zich onderscheidt van Amerikaanse AI-modellen
Want kijk maar eens naar de grootste, machtigste modellen, zoals GPT, Gemini en Llama, maar ook de cloudoplossingen en chips die nodig zijn om de modellen te maken. Vrijwel alles is in handen van Amerikaanse bedrijven. Vanuit het niets kwam deze Chinese startup ineens met een AI-model, dat op een aantal belangrijke vlakken haar Amerikaanse concurrenten de loef mee afsteekt:
- De kosten die nodig waren om dit model te trainen. Waar dit bij de Amerikaanse modellen honderden miljoenen heeft gekost, heeft DeepSeek slechts $6 miljoen uitgegeven hieraan.
- In een reeks onafhankelijke tests, presteerde het model van DeepSeek beter dan Llama 3.1 van Meta, GPT-4o van OpenAI en Claude Sonnet 3.5 van Anthropic op het gebied van nauwkeurigheid, variërend van complexe probleemoplossing tot wiskunde en codering.
- Als gebruiker ben je 98% goedkoper uit met DeepSeek, dan met GPT en Gemini.
To see the DeepSeek new model, it’s super impressive in terms of both how they have really effectively done an open-source model that does this inference-time compute, and is super-compute efficient. We should take the developments out of China very, very seriously. – Microsoft CEO Satya
Nu verdient het altijd de moeite om ook even te kijken naar concrete cijfers rondom AI. Want we staren ons al lange tijd blind op wat er allemaal in de Verenigde Staten gebeurt bij de voor ons bekendere tools, zoals GPT en Gemini. Maar in China is in alle stilte hard doorgebouwd en had het stiekem op een aantal vlakken al lang de meest dominante rol. Het diende vorig jaar bijvoorbeeld 38.000 AI-patenten in (vergeleken met 6300 in de VS), heeft het meeste aantal actieve AI-gebruikers als land wereldwijd en China staat qua gelanceerde modellen echt net achter de VS op de tweede plek.
Antifragiliteit in de strijd
Maar wat ik misschien nog wel de meest bijzondere overdenking hierin vindt, is wat een van mijn favoriete boekenschrijvers Nassim Taleb zo mooi omschrijft als ‘antifragiliteit’. Systemen of entiteiten die sterker of veerkrachtiger worden door stress, beperkingen of uitdagingen. China is flink beperkt door de Verenigde Staten, als je kijkt naar de import van de chips, die noodzakelijk zijn voor het runnen van een AI. Maar DeepSeek laat prachtig zijn hoe antifragiel het is en dat het door de beperkingen gedwongen werd creatiever en efficiënter te werken, waardoor ze uiteindelijk sterker en succesvoller zijn geworden dan degenen zonder die beperkingen.
Necessity is the mother of invention. Because they had to figure out work-arounds, they actually ended up building something a lot more efficient.
– Perplexity CEO Aravind Srinivas.
We zien de resultaten van de lancering van DeepSeek inmiddels overal. Het is bijvoorbeeld de meest gedownloade app, het liet westerse AI-aandelen flink kelderen in prijs ($1200 miljard ging in rook op) en liet het recente Amerikaanse project Stargate ineens volledig verbleken door de benodigde investeringen. Meta heeft inmiddels meerdere ‘war rooms’ opgezet uit paniek, om te onderzoeken hoe DeepSeek zo efficiënt dit model heeft kunnen ontwikkelen. Vooral nadat het de afgelopen week
nog aankondigde $60 miljard meer aan AI te gaan uitgeven.
Meer Temu-troep of juist TikTok-briljantie?
Als ik eerst kijk naar het model in het algemeen, dan zie ik een aantal duidelijke positieve verschillen, vergeleken met bijvoorbeeld concurrent GPT o1.
- DeepSeek-R1 is een zogenaamd ‘open-weight’-model. Hoewel de trainingsdata niet openbaar zijn, kunnen onderzoekers de algoritmes bestuderen en aanpassen. Iets wat absoluut niet mogelijk is met I’s o1, vanwege de gesloten aanpak van haar model.
- DeepSeek-R1 gebruikt de Chain of Thought (CoT)-methode, waarbij het model complexe problemen oplost door stap voor stap te redeneren. Net als mensen dat doen. Dit maakt het beter in taken die logica en meerdere stappen vereisen. Een mooi voorbeeld is coderen. Bij programmeertaken biedt DeepSeek niet alleen code, maar ook een uitgebreide uitleg van de benodigde componenten en hoe deze samenwerken. Dit maakt het ideaal voor beginners die willen leren programmeren.
- Daarnaast maakt het gebruik van een Mixture-of-Experts (MoE)-architectuur, met 671 miljard parameters. Slechts 37 miljard daarvan worden per taak geactiveerd, waardoor het model alleen de meest relevante onderdelen gebruikt. Dit zorgt voor een veel efficiënter gebruik van rekenkracht en energie.
- DeepSeek is open-source en grotendeels gratis te gebruiken, in tegenstelling tot ChatGPT’s betaalde modellen. Het kan lokaal worden gedraaid (op bijvoorbeeld een Macbook), wat kosten en privacyproblemen elimineert, en biedt bovendien goedkopere API-toegang.
We are living in a timeline where a non-US company is keeping the original mission of OpenAI alive – truly open, frontier research that empowers all. – NVIDIA Senior Research Manager Jim Fan
Battle of the bots
Leuk al die cijfers, maar werkt het ook echt beter? Na mijn eerdere test in november, waar ik niet zo onder de indruk was, heb ik DeepSeek een uitgebreide tweede kans gegeven. Ik heb het een aantal simpelere en wat moeilijkere taken laten uitvoeren, die ik elke dag wel met GPT oppak. Ik zette op een groot scherm beide tools naast elkaar en ging aan het testen.
Goede ervaringen met DeepSeek
Een aantal zaken waar ik DeepSeek echt beter in vind, dan GPT:
- Creativiteit en aanpassingsvermogen
DeepSeek blinkt echt uit in creatieve taken in mijn optiek. Het schrijven van levendige personagebeschrijvingen of pakkende verhalen ging veel sneller en smakelijker dan bij GPT. Het model kan zich moeiteloos aanpassen aan de toon en stijl die nodig zijn voor een bepaalde opdracht. Of het nu gaat om formele documenten, creatieve teksten, of zelfs speelse schrijfstijlen… DeepSeek past zich een stuk sneller aan, waar ik bij GPT echt meerdere stappen en instructies nodig had. - Hulp bij programmeren
Bij het oplossen van programmeerproblemen is DeepSeek zeer handig. Ik gooide er wat oude scripts in waarvan ik wist dat het bugs bevatte. Het herkent fouten in code snel en biedt daarbij duidelijke en begrijpelijke oplossingen. Zo gaf het tijdens een test met een foutieve JavaScript-functie niet alleen de juiste oplossing, maar legde het deze ook op een manier uit die zelfs een beginner kan begrijpen. - Snelheid en efficiënte technologie
Met zijn Mixture-of-Experts-architectuur kan DeepSeek razendsnel werken zonder in te leveren op kwaliteit. Ik kende deze technologie nog niet, maar als je op YouTube ziet en op internet leest hoe het werkt, dan klinkt het heel logisch om een model sneller te laten werken. Het genereert gedetailleerde en relevante antwoorden binnen een paar seconden, zelfs bij complexe vragen of taken. Echt een stuk sneller dan GPT.
Mindere ervaringen met DeepSeek
Het was niet alleen rozengeur en maneschijn als ik eerlijk ben:
- Nauwkeurigheid bij niche-onderwerpen
Als het gaat om zeer specifieke of historische onderwerpen, kan DeepSeek soms onvolledige of onjuiste antwoorden geven. Ik betrapte DeepSeek echt op meer hallucinaties dan GPT. - Omgaan met gevoelige onderwerpen
DeepSeek heeft beperkingen als het gaat om politiek of historisch gevoelige thema’s. Onderwerpen zoals de Tiananmen-protesten of de Nanking-massamoord worden vaak vermeden of niet volledig behandeld. Hier zie je echt de inmenging van de Chinese overheid in de werking van het model. - Beperkte ondersteuning en documentatie
De handleidingen en ondersteunende materialen van DeepSeek zijn minder uitgebreid dan die van andere modellen, zoals GPT-4. Dit kan vooral frustrerend zijn voor nieuwe gebruikers die het model optimaal willen benutten maar niet goed weten hoe ze moeten beginnen. Ik heb veel gezocht, maar vond de resultaten matig, vergeleken met GPT.
Een aantal andere gave toepassingen die ik via de verschillende kanalen voorbij zag komen:
- Simpel een app laten maken die Youtube-kanalen scraped en op basis daarvan trendrapporten maakt;
- Een filmpje over hoe modellen worden getest met echt zeer complexe redenatie-uitdagingen;
- Makkelijk zelf een eigen ‘ready to play’ game laten bouwen.
Wij van WC-eend
Uiteraard zijn er ook al genoeg kritieken op DeepSeek. De meest gehoorde, is rondom de claim dat het met zo weinig chips, zo’n krachtig model heeft kunnen trainen. Het enige rapport hierover met concrete resultaten en cijfers komt van – jawel – DeepSeek zelf.
Omdat DeepSeek van Chinese oorsprong is, maken sommige gebruikers zich daarnaast zorgen over hoe hun gegevens worden verwerkt of opgeslagen. Vooral bij gevoelige informatie kan dit een drempel zijn, ondanks dat er geen concreet bewijs is van datamisbruik.
Maar hoe je het ook wend of keert, het is een ongekende grote nieuwe stap binnen de ontwikkelingen van AI-systemen. DeepSeek biedt naar mijn mening prachtige kansen voor Europa en andere regio’s, door de drempels voor toegang tot geavanceerde AI-technologie te verlagen. De focus op efficiënte modellen die minder hardware en kosten vereisen, maakt hoogwaardige AI bereikbaar voor kleinere bedrijven, onderzoeksinstellingen en opkomende markten. Dit is vooral waardevol in Europa, waar veel nadruk ligt op democratische toegang tot technologie en het ondersteunen van startups en onderzoekers met beperkte middelen.
Stimuleren concurrentie
Daarnaast stimuleert DeepSeek de wereldwijde concurrentie rondom AI. Door innovatie te omarmen ondanks handelsbeperkingen, laat het zien dat technische vooruitgang niet per se afhankelijk is van grote budgetten of ongelimiteerde middelen. Dit kan andere regio’s, inclusief Europa, inspireren om op een slimmere, efficiëntere manier te innoveren.
DeepSeek heeft in korte tijd de AI-innovatie versneld en creëert een gelijker speelveld. Ik ben erg benieuwd naar de reacties vanuit alle Amerikaanse concurrenten en regering. Ik houd ze hier vol plezier op Frankwatching in de gaten.