Niet alleen generatieve AI-modellen, maar ook steeds meer organisaties lijken wel te hallucineren rondom de inzet van technologie. Het moet allemaal zo snel mogelijk, het liefst gisteren, worden geïmplementeerd, om maar snel met resultaten te komen. Maar in al die hectiek, vergeten we in mijn optiek steeds meer de ethiek. Daarom in dit artikel een aantal aandachtspunten.

Nadenken over je eigen handelen of het in een bepaalde situatie het goede is om te doen. Ethiek draait om principes die bepalen hoe we ons zouden moeten gedragen. Niet alleen voor onszelf, maar ook ten opzichte van anderen. Als we kijken naar ethiek in technologie, gaat het naar mijn mening om hoe technologie ons leven beïnvloedt. Hoe we ervoor zorgen dat dit op een goede manier gebeurt.

Steeds meer uitdagingen

Het vraagt om kritisch te kijken naar hoe we technologie maken en gebruiken, en ervoor te zorgen dat het de mensheid ten goede komt zonder onnodige schade of ongelijkheid te veroorzaken. Maar helaas zien we steeds meer uitdagingen op het snijvlak van ethiek en techniek.

  • Een van de grootste uitdagingen is het gebrek aan transparantie bij bedrijven. Zo kreeg Uber in Nederland een boete van 10 miljoen euro, omdat het bedrijf niet duidelijk was over hoe het de gegevens van zijn chauffeurs verzamelde en gebruikte.
  • Ook zien we steeds meer uitdagingen rondom privacy. Gezichtsherkenningstechnologie en tracking-apps dringen bijvoorbeeld vaak zonder expliciete toestemming binnen in de persoonlijke levenssfeer van mensen. In het Verenigd Koninkrijk leidde het gebruik van gezichtsherkenning door de politie tot veel kritiek en zorgen over constante surveillance.
  • Sinds de opkomst van Generatieve AI, is de discussie over vooroordelen en discriminatie ook weer flink opgelaaid. Een bekend voorbeeld is de AI-recruitment tool van Amazon, die stopte met het gebruik ervan nadat bleek dat het systeem discrimineerde tegen vrouwelijke kandidaten.
  • Technologieën ontwikkelen zich vaak sneller dan de wetten die gereguleerd moeten worden, wat leidt tot situaties waarin bedrijven zonder adequate ethische richtlijnen opereren. Dit is momenteel bijvoorbeeld goed te zien in de discussie in Nederland over de regulering van drones en autonome voertuigen, waarbij regelgeving ver achterblijft bij technologische innovaties​.
  • Ook rondom verantwoordelijkheid zijn er veel vraagtekens. Want wie is er verantwoordelijk voor databeheer en -bescherming? Wie is er verantwoordelijk voor foutieve antwoorden van een chatbot? Wie is verantwoordelijk als een zelfrijdende auto een ongeval veroorzaakt?

Bedrijven gaan de mist in

Nu wordt bij ethiek, en vooral het missen ervan, gewezen naar de grote techbedrijven. Maar met de huidige gekte rondom AI, zie ik ook steeds meer MKB-bedrijven de mist in gaan. In de afgelopen jaren heb ik heel wat organisaties, van kleine MKB’ers tot multinationals mogen begeleiden rondom digitale transitie, echt dromen omzetten in praktisch gebruik binnen de organisatie. Ik zie dat door de veelheid aan gave, nieuwe technologieën die er de afgelopen jaren bij zijn gekomen (van NFTs tot AI, metaverse tot AR), een ongekend enthousiasme is ontstaan om ermee aan de slag te gaan.

Maar aan de andere kant zien veel organisaties door de vele dromen het bos niet meer. Ik zie dit steeds vaker terug; organisaties kampen momenteel met allerlei grote uitdagingen (personeelstekort, gestegen kosten, etc.) en hebben ineens een wondermiddel gevonden om alle pijnen weg te halen. Maar ze vergeten vaak de bijsluiter te lezen of na te denken over mogelijke bijwerkingen.

Technologie ontwikkelt (te) snel

Al jaren mag ik hier op Frankwatching schrijven over de impact en het praktisch gebruik van nieuwe technologieën. Vaak benoem ik het ‘pacing problem’ van technologie. Technologie ontwikkelt zich soms zo ongekend snel, dat wet- en regelgevers het gewoon niet kunnen bijhouden. Het duurde 7 jaar voordat er wetgeving kwam rondom de deeleconomie. Het duurde meer dan 10 jaar voordat er (einde 2024) eindelijk wetgeving is rondom cryptovaluta.

Maar het probleem hier? Door de snelheid waarmee blockchaintechnologie is ontwikkeld, mist het eigenlijk alweer alle nieuwe ontwikkelingen, zoals tokenisatie (NFT, Real World Assets etc), DAO’s en DeFi.

Gebruik je morele kompas

Je kan dus als organisatie de keuze maken om in dit ‘grijze gebied’, vooral lekker je gang te gaan met activiteiten, totdat er wetgeving komt die bepaalde zaken inperkt of zelfs verbiedt. Zelf kijk ik liever doorlopend naar mijn morele kompas. Bij het nemen van beslissingen rondom nieuwe technologieën, denk ik goed nuchter na of ik het moreel ook uitlegbaar vind. Ik probeer het juiste te doen, als er geen duidelijke regels zijn om mij hierin te leiden.

Bedrijven zetten de eerste stappen

Ook al is volgens onderzoek nog maar 4% van de bedrijven volledig voorbereid om AI in te zetten, inmiddels is meer dan 10% er al dagelijks mee bezig. Dit zijn niet alleen de grote technologiebedrijven. Van horecaondernemers tot een ziekenhuis, van politici tot ambtenaren; inmiddels heb ik met allen al mogen werken om de eerste stappen te zetten. Een standaard element waar ik altijd naar kijk; het ethische vraagstuk en hoe dit ook goed mee te nemen in het opzetten en het gebruik.

Tip 1: denk nog beter aan data

We zijn door de GDPR beter gaan nadenken over onze data en die van onze klanten. Maar toch zie ik nog steeds dat bedrijven vaak meer data verzamelen dan strikt noodzakelijk is voor hun doeleinden. Deze overmatige dataverzameling vergroot het risico op privacy-schendingen aanzienlijk. Bovendien worden gevoelige gegevens regelmatig onvoldoende beveiligd opgeslagen of onbedoeld gedeeld met derde partijen. Veel organisaties onderschatten de gevoeligheid van bepaalde gegevens en de potentiële gevolgen van datalekken, wat kan leiden tot reputatieschade en juridische problemen.

Wat jij kunt doen:

  • Implementeer een ‘Data Minimalisatie Protocol’.
  • Stel een team samen dat elke 3 maanden alle activiteiten om data te verzamelen goed evalueert.
  • Gebruik hierbij een checklist om te bepalen:
    • Is deze data echt nodig voor onze kernactiviteiten?
    • Kunnen we ons doel hierbij bereiken met minder data?
    • Hoe lang moeten we deze data bewaren?
  • Zorg ervoor dat je op basis hiervan overbodige data verwijdert.

Tip 2: wees zo transparant als wenselijk

Ik zie dat de meeste bedrijven zeer terughoudend zijn in het openlijk communiceren over hun AI-gebruik. Nu begrijp ik dit vanuit een concurrentiegevoelig oogpunt, maar ik hoor ook vaak dat dit is uit angst voor negatieve reacties van klanten of het publiek. Het is duidelijk dat je AI gebruikt in de klantenservice als dit via een chatbot gebeurt, maar de rol van AI binnen simpele dingen, zoals productaanbevelingen of zelfs besluitvorming wordt toch vaak verhuld.

Voorkom vertrouwensbreuk

Maar dit gebrek aan openheid kan echt averechts werken. Wanneer het gebruik van AI binnen bepaalde elementen in de organisatie uiteindelijk aan het licht komt, kan dit leiden tot een vertrouwensbreuk van klanten en andere betrokken partijen.

  • Wees gewoon open en eerlijk. Ontwikkel een ‘AI Transparantie Strategie’.
  • Maak een duidelijk overzicht van alle elementen in de organisatie (gerelateerd aan jouw klant) waar AI wordt ingezet.
  • Geef duidelijk, in jip-en-janneketaal aan, waarom je dit gebruikt en waar. Zeg dus bijvoorbeeld: “We gebruiken AI om jouw e-mails te categoriseren, zodat we sneller kunnen reageren.”

Tip 3: beat the bias

Leuk geprobeerd, maar helaas een verkeerde uitwerking. De donkergekleurde en Aziatische Nazi’s, die uit Google’s Gemini kwamen rollen zorgden voor veel commotie rondom de bias van AI. De ontwikkelaars hadden waarschijnlijk het aantal blanke mannen proberen te verminderen in de resultaten, maar soms geeft dit in (vooral historische context) dan toch echt verkeerde resultaten.

AI neemt vooroordelen over

AI-systemen nemen onbewust menselijke vooroordelen over uit de trainingsdata waarop ze zijn gebaseerd. Dit kan resulteren in systematische discriminatie op basis van kenmerken zoals geslacht, etniciteit, leeftijd of sociaaleconomische status. Nu ging dit niet alleen fout binnen Gemini, maar zie je dit ook steeds vaker fout gaan binnen bijvoorbeeld recruitment of opsporingsdiensten. Deze biases zijn vaak subtiel en moeilijk te detecteren, maar kunnen verstrekkende gevolgen hebben voor individuen en de maatschappij als geheel.

Wat jij kunt doen:

  • Ga eens experimenteren met de IBM’s AI Fairness 360 toolkit om modellen te testen op verschillende vormen van bias.
  • Je kunt hiermee een reeks ‘fairness metrics‘ samenstellen, specifiek voor de use-cases waarbij je AI gebruikt. Test de AI’s dus niet alleen op algemene prestaties,
    maar ook op de fairness-criteria.
  • Bepaal van tevoren de grenswaarden rondom acceptabele niveaus van bias.

Tip 4: weg met het blinde vertrouwen

Je hebt niet alleen bias wat resulteert in systematische discriminatie. Er bestaat ook zoiets als ‘automation bias’; wat ertoe kan leiden dat medewerkers de output van AI-tools als foutloos beschouwen. Dit zie ik steeds vaker terug; de neiging om een eigen oordeel en expertise terzijde te schuiven, ten gunste van de aanbeveling van een AI.

Het aantal ‘hallucinaties’ van de verschillende AI-tools is soms hilarisch, maar door de groeiende bias ook zorgwekkend. Ook al zeggen experts dat vrijwel alle hallucinaties binnen een jaar zijn verdwenen, recent onderzoek laat zien dat het percentage hallucinaties bij AI’s 3% tot wel 27% kan bedragen.

Wat jij kunt doen:

  • Ga bij de verschillende manieren van gebruik van AI heel goed na waar de menselijke beoordeling niet handig, maar echt essentieel is.
  • Zorg dat je voor de onderdelen waar dit essentieel is, structureel en gestructureerd menselijke evaluatie toepast. Log gekke dingen duidelijk en maak het bespreekbaar.

Ik heb inmiddels al een paar klanten gehad die, door het in kaart brengen van bepaalde hallucinaties en de impact op de uitkomsten, het gebruik van bepaalde AI-tools alweer hebben gestopt.

Tip 5: maak duidelijke spelregels

Veel organisaties zie ik niet verder gaan dan enkel de medewerkers instrueren dat ze geen vertrouwelijke data mogen gebruiken binnen AI-tools. Uiteraard, je wil voorkomen dat je een ‘papieren tijger’ gaat creëren of ‘paarse krokodillengedrag’ in de hand gaat werken. Maar ik merk dat veel werknemers ook echt snakken naar duidelijke spelregels.

Wat jij kunt doen:

  • Stel een korte, maar krachtige ‘Ethische AI Code’ op voor de collega’s.
  • Heldere, specifieke richtlijnen voor het gebruik, die ook de diverse perspectieven van verschillende afdelingen meeneemt.
  • Koppel hier een heldere checklist aan, die moet worden doorlopen bij het gebruik van een AI-tool of opzetten van een project. Vermeld welke beslissingen moeten worden genomen, zaken moeten worden overdacht, zaken moeten worden getoetst, etc.

Tip 6: stel Chief Ethical Officers aan

Een derde van de leidinggevenden gaf aan in een onderzoek van Deloitte dat ethische vraagstukken een van de top drie risico’s is van AI. Terwijl in bepaalde beroepen vanaf het begin de ethiek is ingebakken, is bij het programmeren van AI-tools dat beslist niet het geval. In de geneeskunde en de advocatuur heb je bijvoorbeeld een organisatie die je vergunning kan intrekken als je de regels overtreedt, dus de prikkel om je ethisch te gedragen is erg groot. Zoiets hebben we nog niet bij softwareontwikkelaars.

Het is dus belangrijk om niet alleen bij het begin van het gebruik van AI-tools na te denken over zaken als ethiek. Dit zou echt doorlopend moeten worden getoetst, gecontroleerd en, waar nodig, bijgestuurd. We zagen jaren geleden bij vooral financiële instellingen dat er ‘Chief Ethical Officers’ werden aangesteld. Dit zijn mensen die eerst denken aan de ethische kant van iets en daarna pas de winst. Een dergelijk persoon zou je als organisatie standaard moeten aanstellen, al is het deeltijd.

Echt iemand die hoofdverantwoordelijk is voor het doorlopen testen van de AI-tools, test of collega’s de checklists en spelregels naleven, of er geen sterke bias of hallucinaties zijn en of alles nog steeds gebeurt volgens het eigen morele kompas.

Stel een duidelijke structuur in

Ik zie bij steeds meer organisaties dat ze hiervoor echt een duidelijke structuur instellen. Vaak met meerdere collega’s in een stuurgroep, die doorlopend zaken evalueren en bespreekbaar maken. Ze voorkomen dat de implementatie van AI een ‘set and forget’ wordt. De Nederlandse overheid heeft hier een prachtige whitepaper over gemaakt.

Pas innovatie verantwoordelijk toe

Ethisch gebruik van AI is in mijn optiek geen luxe, maar echt een noodzaak. Als bedrijf hebben we niet alleen de verantwoordelijkheid om innovatief te zijn, maar ook om die innovatie op een verantwoorde manier toe te passen. Elke beslissing die we nemen in het ontwerp, de implementatie en het gebruik van AI-systemen, heeft mogelijk verstrekkende gevolgen voor klanten en de maatschappij als geheel.

Combineer intelligentie en verantwoordelijkheid

Zoals de beroemde wetenschapper Isaac Asimov het ooit zo mooi zei: “De tragedie van de wereld is dat zij die slim zijn vol twijfel zijn, en zij die vol zelfvertrouwen zijn, stom zijn.” Laten we in onze omgang met AI streven naar een combinatie van intelligentie én verantwoordelijkheid.

Wacht dus niet tot morgen om ethiek een centrale plaats te geven in jouw AI-strategie. Begin vandaag nog met het implementeren van de praktische tips die ik in dit artikel heb gedeeld. Stel die ethische spelregels op, of begin met het uitvoeren van die cruciale bias-checks. Elke stap, hoe klein ook, brengt ons dichter bij een toekomst waarin AI niet alleen krachtig is, maar ook rechtvaardig en betrouwbaar.