16 september 2024
AI in de Boardroom
Begeleidingsethiek helpt bestuur en toezicht rekenschap te geven van Responsible AI
Albert Jan Stam
16 september 2024
AI hoort in de bestuurskamer
Hoe vaak gaat het aan de bestuurstafel over AI of technologie? Staan op de agenda van de Raad van Commissarissen regelmatig onderwerpen die AI-gerelateerd zijn en zo ja, vindt dan ook het juiste gesprek met voldoende kennis van zaken plaats over de mogelijkheden en de risico’s?
AI is een strategisch thema. Het is de verantwoordelijkheid van iedere bestuurder en toezichthouder om zich de vraag te stellen: hoe kun je in onze organisatie AI zo inzetten dat ze werkt voor mens, organisatie en maatschappij en hoe voorkomen wij dat zij zich tegen ons keert? Geen eenvoudige vraag. Er zijn genoeg voorbeelden dat technologie slachtoffers maakt. Tegelijkertijd weten we van AI-systemen die levens redden of het werk aangenamer maken. Hoe voorkom je enerzijds onnodige terughoudendheid of zelfs krampachtigheid als het om het ontwerpen en inzetten van AI gaat en hoe zorg je er anderzijds voor dat AI niet onwenselijk autonoom handelt of jou op onjuiste gronden beslissingen laat nemen.
Maar eerst, wat verstaan wij onder AI? Kunstmatige Intelligentie (KI) ofwel Artificial Intelligence (AI) is het vermogen van machines (computers et cetera) om complexe taken uit te voeren die voorheen alleen aan mensen voorbehouden leken. Het is dus feitelijk een verzamelnaam voor het imiteren (en zelfs overtreffen) van menselijk intelligent gedrag zoals redeneren, leren, plannen en ontwerpen.
Voorbeeld van AI zijn de algoritmes van Google die zoekopdrachten analyseren en patronen herkennen. Google kan op basis daarvan gepersonaliseerde advertenties aanbieden. AI kan ook helpen bij het interpreteren van radiologische beeldvorming. Ook valt te denken aan (bijna) autonome voertuigen zoals auto’s, drones en bussen.
Morele dilemma’s
AI heeft grote impact op de vrijheid van individuele mensen, op de kwaliteit van samenleven en de leefbaarheid in onze wereld. Zo kunnen AI-systemen vooroordelen bevatten die leiden tot discriminatie op basis van ras, geslacht, leeftijd et cetera. Bekend voorbeeld zijn geautomatiseerde wc’s waarbij alles reageert op bewegingen van je lichaamsdelen. Een paar zwarte mannen lieten eens in een filmpje zien dat het met hun handen niet werkte. De sensor van de kraan reageerde alleen op witte handen.
Veel AI-algoritmen opereren op basis van complexe modellen die moeilijk te begrijpen zijn voor niet-experts. Hoe kunnen we ervoor zorgen dat AI-systemen transparant zijn en dat hun besluitvormingsprocessen (ADM – Automated Decision-Making) begrijpelijk zijn voor mensen die erdoor worden beïnvloed? Denk hierbij aan aanbevelingssystemen voor onderwijsbronnen die op basis van prestaties en interesses van leerlingen suggesties van leermiddelen automatiseren. Ook screening van sollicitanten, de analyse van werknemersprestaties en kwaliteitscontrolesystemen zijn hiervan voorbeelden.
AI wordt steeds meer gebruikt op nieuwsredacties en bij contentcreatie. Dit kan positieve gevolgen hebben, zoals het efficiënter analyseren en samenvatten van grote hoeveelheden informatie, het identificeren van trends en het genereren van nieuwsberichten op basis van gegevens. Echter, het ethische vraagstuk ontstaat wanneer AI wordt gebruikt om nepnieuws te verspreiden, of wanneer algoritmen zijn geprogrammeerd om sensationele of polariserende inhoud te bevorderen om meer betrokkenheid te genereren, zelfs als dit ten koste gaat van de waarheid of het algemeen belang.
Daarnaast is er ook de kwestie van filterbubbels, waarbij AI-algoritmen individuen blootstellen aan informatie die hun bestaande overtuigingen bevestigt, waardoor ze in een echo-kamer van gelijkgestemden terechtkomen en potentieel een vertekend wereldbeeld krijgen.
In de zorg bestaat het risico van cognitieve manipulatie door neuro(modulatie)technologieën. Informatie over gedachten, overtuigingen, voorkeuren et cetera kan doorverkocht worden of gemanipuleerd om opvattingen, emoties of beslissingen te sturen zonder toestemming. (Ienca 2022). Hoe krijgen individuen controle over de verzameling, opslag en toegang tot hun neurologische gegevens, zoals hersenactiviteit of andere biometrische informatie die kan worden gebruikt door AI-systemen?
Digitale ethiek
AI-systemen zijn gebouwd om te discrimineren en ontwikkelaars zijn zich vaak onvoldoende bewust van hun vooroordelen, waarden en normen die bepalend zijn voor de uitkomsten. De vraag of we dit wel of niet willen is niet de goede. Belangrijker is de vraag: Wat is een goede manier van leven? Als je vanuit deze vraag het ontwerp en het gebruik van technologie benadert, heb je veel meer controle en invloed. Dan is AI ook niet een boze demon die macht over ons heeft, maar kunnen we AI integreren in de wijze waarop wij mens zijn en goed willen leven. Het is daarbij zaak kritisch te kijken naar de onderbouwing van algoritmen en onzichtbare overtuigingen. Digitale ethiek is een continue balanceeract: wat is een gerechtvaardigd onderscheid? Digitale ethiek verdiept zich in de waarden, normen, regels en gedragingen die van toepassing zijn in de digitale interactie tussen organisaties en/of individuen en stelt de vraag naar wat ‘juist’ is. Ethische reflectie helpt om de voor- en nadelen te wegen en de afweging te maken in hoeverre technologische innovatie aansluit bij wat de samenleving en de gebruikers echt, bewust willen. Ethische reflectie zou een onderdeel moeten zijn van technology assessment: bestudering en evaluatie van nieuwe technologie. Het is een manier om aankomende technologische innovaties te voorspellen en erop voor te bereiden met het oog op de gevolgen ervan voor de samenleving op grond waarvan beslissingen kunnen worden genomen.
SMC kan bestuurders en toezichthouders helpen met begeleidingsethiek
SMC heeft een aanpak ontwikkeld die bestuurders en toezichthouders concrete handvatten biedt om te sturen of toezicht te houden op technologie die ethisch verantwoord toe te passen is, een aanpak die leidt tot handelingsopties bij concrete technologische innovaties. Hierbij gebruiken we onder meer het hulpmiddel van de Moral Impact Analysis (MIA) – een idee ontleend aan Wright (2011). Het redeneren vanuit waarden en het betrekken van zoveel mogelijk relevante belanghebbenden zijn hierbij belangrijke uitgangspunten. We weten ook hoe selectie-algoritmes kunnen worden bijgestuurd om representatief te selecteren met behoud van effectiviteit, dus zonder onterechte benadeling van bepaalde groepen. Dit is vooral belangrijk bij het selecteren van de meest geschikte sollicitanten of voor financiële instellingen en uitvoeringsinstanties om fraude op te sporen (‘Rechtvaardige algoritmes’, Centraal Planbureau 2023). Uiteraard kijken we ook naar bestaande wet- en regelgeving, evenals naar de Ethische Code AI van NLdigital en de AI Act.
Drie invalshoeken zijn hierbij helpend:
- Ethics bij design, waarbij morele waarden worden geïntegreerd in het ontwerp van de technologie.
- Ethics in context, wat inhoudt dat de context waarin de technologie gebruikt wordt zo wordt ingericht dat morele waarden verdisconteerd zijn.
- Ethics by user, namelijk training en bewustwording van de gebruikers.
Zo komen we samen met wie de bestuurskamers bevolken tot een eigentijdse governance die rekenschap geeft van Responsible AI.