Kunstmatige intelligentie wordt wereldwijd door overheden ingezet — maar steeds vaker niet vóór de burger, maar tegen hem. Denk aan surveillancesystemen, deportatie-algoritmes en militaire doelen die door AI worden geselecteerd. Het wrange is: ondanks de lessen van de Toeslagenaffaire, waarin geautomatiseerde systemen duizenden levens verwoestten, lijkt er nauwelijks iets veranderd. Transparantie ontbreekt, toezicht is minimaal, en de gevolgen zijn vaak niet te herstellen. Toch blijft de technologie oprukken, met grote gevolgen voor mensenrechten, privacy en zelfs levens.
Neem de Verenigde Staten. Sinds kort wordt AI actief gebruikt bij het opsporen en deporteren van mensen zonder verblijfsvergunning. Via een netwerk van databases en voorspellende algoritmes worden mensen gevolgd, geprofileerd en automatisch aangemerkt als “risico.” Deze aanpak komt voort uit het idee dat technologie objectiever zou zijn dan mensen. Maar klopt dat wel? Volgens burgerrechtenorganisaties leidt het vooral tot fouten en discriminatie. Er is nauwelijks transparantie, en mensen die onterecht op een lijst belanden, hebben vaak geen idee hoe ze daar überhaupt op gekomen zijn.
In Israël zien we een ander, nog schrijnender voorbeeld. Tijdens militaire operaties in Gaza maakte het Israëlische leger gebruik van AI-systemen met namen als Lavender en Gospel. Deze systemen helpen bij het selecteren van doelen, soms binnen seconden. Dat klinkt efficiënt, maar het roept fundamentele vragen op. Want hoe zeker weet je dat een algoritme het verschil kan zien tussen een militant en een burger? Volgens een recent artikel in de Financial Times accepteerde het leger een foutmarge van 10%. Bij technologie die over leven en dood beslist, is dat geen bijzaak.
Ook in de VS groeit het gebruik van zogeheten “AI-persona’s” in de opsporing. In een programma met de naam BlueOverwatch creëren veiligheidsdiensten digitale versies van verdachten. Deze avatars worden geanalyseerd om hun gedrag te voorspellen, nog vóór ze iets strafbaars hebben gedaan. Het doet denken aan sciencefiction, maar is vandaag al praktijk. Volgens de ontwikkelaars zou het gaan om “proactieve veiligheid.” Tegelijkertijd waarschuwen experts: dit is een glijdende schaal naar permanente surveillance, zonder duidelijke spelregels of toezicht.
De cijfers onderschrijven dat we hier niet te licht over moeten denken. Uit onderzoek van Stanford blijkt dat wereldwijd 75 van de 176 onderzochte landen al AI inzetten voor surveillance-doeleinden, vaak zonder duidelijke wetgeving. En volgens Freedom House zijn we al negen jaar op rij bezig aan een wereldwijde daling van digitale vrijheid.
Moeten we dan stoppen met AI? Nee, absoluut niet. De technologie zelf is niet het probleem. Het gaat erom hoe we het gebruiken – en vooral wie er de controle over heeft. AI kan overheden helpen slimmer, eerlijker en efficiënter te werken. Maar zonder duidelijke grenzen, toezicht en publieke discussie ligt misbruik op de loer.
Het is tijd dat we verder kijken dan hype en belofte. AI vraagt niet alleen om slimme programmeurs, maar ook om scherpe democratische keuzes.