5 december 2023

AI in de boardroom

Je kon er niet omheen in 2023: artificiële intelligentie oftewel AI. Een jaar geleden maakten we kennis met de krachtige mogelijkheden van generative AI, een manier om op basis van een zog. prompt tekst of afbeeldingen te genereren. GenAI heeft dit jaar tot veel krantenkoppen geleid, van opzienbarende verbeteringen in de systemen zelf tot opzienbarende ontwikkelingen in de bedrijven die deze oplossingen aanbieden. 

Maar AI is niet nieuw – we gebruiken al jaren algoritmes in systemen. AI heeft zich zich diep genesteld in ons dagelijks leven. In je persoonlijke leven via je timeline op social media tot een aanbeveling voor de volgende film op je streamingplatform. Zakelijk, via de risico-analyse van een verzekeringsmaatschappij tot en met de medische diagnoses op basis van röntgenfoto’s. AI is overal en heeft een enorme impact op de manier waarop we dingen doen en beslissingen nemen. AI is in staat te leren van grote hoeveelheden data en processen te versnellen. Daarnaast zien we dat AI taken van medewerkers kan overnemen. Dit heeft positieve consequenties voor zowel de organisatie als de medewerker.

Maar AI heeft ook een keerzijde. Toezichthouders en commissarissen spelen een cruciale rol bij het waarborgen van ethische en verantwoorde praktijken in de organisatie. Met de opkomst van AI krijgt dit een extra dimensie. Eerder dit jaar schreef ik een blog over toezicht houden op digitalisering naar aanleiding van de vernieuwde Corporate Governance Code. Eén van de meest prangende digitale kwesties waar bestuurders en toezichthouders voor staan betreft het gebruik van AI-systemen in de organisatie, en met name de consequenties daarvan. Als voorbeeld zoom ik in dit artikel in op de consequenties van bias in AI.

Een dilemma met gevolgen

We zijn in de afgelopen jaren meermaals geconfronteerd met de negatieve gevolgen van bias (vooroordelen) in AI. De gegevens waarmee AI systemen zijn getraind, de algoritmes die ze gebruiken en de manier waarop ze worden toegepast kan leiden tot discriminatie. Omdat bijvoorbeeld niet altijd duidelijk is op basis waarvan gegevens verzameld worden en welke personen wel of niet meegenomen worden. Vooroordelen kunnen leiden tot onrechtvaardige en ongelijke behandeling van bepaalde groepen mensen. Voor organisaties kan dit serieuze juridische, ethische en reputatierisico’s met zich meebrengen.

In Nederland hebben we de afgelopen jaren verschillende voorbeelden gezien:

  • In juni bleek uit onderzoek dat studenten met een migratieachtergrond sneller in het vizier komen bij DUO-controles op fraude met de uitwonendenbeurs. Fraudecontroles vinden nu uitsluitend plaats op basis van een aselecte steekproef.
  • De Nederlandse politie is gestopt met het gebruik van een algoritme dat werd ingezet ter ondersteuning van het politiewerk. Het Risico Taxatie Instrument Geweld moest voorspellen wie er in de toekomst geweld gaat plegen. Experts stelden dat de statistische kwaliteit en ethische juistheid van het risicomodel onvoldoende onderbouwd waren.

En hoewel de voorbeelden suggereren dat het met name de overheid betreft, weten we dat ook commerciele bedrijven dergelijke programma’s gebruiken. Zoals financiele instellingen, die met algoritmes bepalen hoe groot de kans is dat iemand een lening of krediet terugbetaald. Of bedrijven die via algoritmes de meest geschikte kandidaten selecteren of de laagst scorende medewerkers ontslaan. Deze gevallen leiden tot minder krantenkoppen, maar hebben net zulke ingrijpende gevolgen voor de betrokkenen. Ze hebben ook geleid tot rechtszaken, met negatieve consequenties voor de betrokken bedrijven.

Belangrijker dan hoe algoritmes werken is het om te begrijpen welke doelstellingen ze nastreven. Toezichthouders moeten bestuurders vragen hoe aanvaardbaar ze de risico’s en consequenties vinden.

Kun je negatieve gevolgen voorkomen?

Nadere bestudering van de voorbeelden toont aan dat bias in AI kan ontstaan door verschillende factoren, zoals de kwaliteit en representativiteit van de data, het ontwerp en de validatie van het algoritme, en de context en het doel van de toepassing. Het is daarom belangrijk om vanaf het begin rekening te houden met de ethische, juridische en maatschappelijke gevolgen van bias in AI en een aanpak te definiëren om dit te voorkomen, te detecteren en te corrigeren.

Bias in AI kan leiden tot onrechtvaardige of onnauwkeurige resultaten voor verschillende groepen mensen. Bedrijven kunnen in de aanpak om dit te voorkomen de volgende punten meenemen:

  • Een diverse en inclusieve dataset die de doelgroep en de context van de AI-toepassing goed weerspiegelt. Verwijder data die vooroordelen bevatten of versterken, zoals stereotypen, discriminatie of ongelijkheid.
  • Gebruik een transparant en verantwoord algoritme dat de logica en de criteria van de AI-beslissingen duidelijk maakt. Vermijd algoritmes die vooroordelen introduceren of verbergen, zoals onnodige complexiteit of onduidelijke variabelen.
  • Zorg voor een divers en betrokken team van experts dat de AI-modellen ontwerpt, traint en inzet. Voorkom dat het team vooroordelen negeert door een gebrek aan kennis, ervaring of perspectief.
  • Een menselijke en ethische controle op de AI-modellen die een directe of indirecte invloed hebben op de maatschappij. AI-modellen mogen niet worden ingezet zonder toezicht, evaluatie of feedback, zoals een gebrek aan regels, normen of waarden.

Het is dus belangrijk dat bedrijven een holistische en multidisciplinaire aanpak hanteren bij de introductie van AI. Dit betekent dat er niet alleen aandacht moet zijn voor de technische aspecten, maar ook voor de sociale, ethische en juridische aspecten. Ook moeten verschillende stakeholders betrokken worden bij de ontwikkeling en het gebruik van AI, zoals ontwikkelaars, gebruikers, experts en bestuurders. Zo ontstaat een dialoog en feedbackloop over de wenselijkheid, de rechtvaardigheid en de betrouwbaarheid van AI.

De rol van de commissaris en toezichthouder

Toezichthouders en commissarissen spelen een cruciale rol bij het waarborgen van een ethische AI-implementatie binnen organisaties. Ten eerste moet je je bewust zijn van AI-toepassingen en de mogelijke risico’s die deze met zich meebrengen. Dit begint bij het bestuur, waar de strategische beslissingen worden genomen over de inzet van AI of systemen met AI.

Steeds meer organisaties stellen richtlijnen op voor een transparant en ethisch AI-gebruik. Onderaan dit artikel vind je enkele voorbeelden ter illustratie. Commissarissen en toezichthouders doen er goed aan om bestuurders aan te moedigen een AI-standaard te selecteren en (eventueel) de organisatie te certificeren. Dit geeft een duidelijk signaal aan interne en externe belanghebbenden.

Ook als jouw organisatie zich niet bezig houdt met toepassingen op het gebied van AI en algoritmes is de kans groot dat je deze ongemerkt binnen krijgt door het gebruik van 3rd party software als een CRM of HR systeem. Je kunt dus te maken krijgen met de consequenties van beslissingen die genomen zijn met behulp van algoritmes in deze software. Wanneer bestuurders hier niet van op de hoogte zijn, kan dat alsnog een ongewenst risico opleveren. Zorg daarom dat bestuurders hier oog voor hebben, en de raad regelmatig informeren over het beleid.

Toezichthouders en commissarissen moeten transparantie eisen van hun bestuurders, en hun toezichthoudende rol op het gebied van digitalisering professioneel invullen. Het is van essentieel belang dat je de juiste vragen stelt. Daarnaast kun je met het bestuur rapportageverplichtingen afspreken om ervoor te zorgen dat vooroordelen in AI worden gedetecteerd en aangepakt. Dit betekent onder meer dat het bestuur duidelijke beleidslijnen voor het omgaan met AI opstelt en medewerkers traint om ethisch te handelen bij het ontwikkelen en implementeren van AI.

Wat kun je doen in de praktijk?

Als toezichthouder hoef je geen AI-expert te zijn. Je moet echter wel met de bestuurders in gesprek om te beoordelen of zij zich bewust zijn van mogelijke negatieve effecten en voldoende garanties hebben ingebouwd om deze te voorkomen. Dit alles met het oog op lange-termijn waardecreatie en het beschermen van de reputatie van de organisatie. Blijf rolvast: het gaat niet om de details in de uitvoering, maar om de waarborgen die de bestuurders inbouwen om problemen te voorkomen. Als toezichthouder of commissaris kun je denken aan:

  • Stel kritische vragen over de strategische impact van AI op het businessmodel, de concurrentiepositie en de bedrijfsvoering van de organisatie. Hoe wordt AI ingezet om de doelstellingen en de missie van de organisatie te ondersteunen? Wat zijn de kansen en de bedreigingen van AI voor de organisatie? Welke rol speelt het leiderschap?
  • Controleer of de organisatie voldoet aan de wettelijke en ethische normen voor de bescherming van persoonsgegevens en de grondrechten van de betrokkenen. Hoe wordt de kwaliteit en de representativiteit van de data die gebruikt wordt voor AI gewaarborgd? Hoe wordt de transparantie en de verantwoording van de AI-beslissingen gegarandeerd? Hoe wordt de effectiviteit en de betrouwbaarheid van de AI-systemen getest en gemonitord? Hoe wordt de naleving van de AVG en andere relevante wet- en regelgeving georganiseerd?
  • Stimuleer een dialoog en een feedbackloop over de wenselijkheid, de rechtvaardigheid en de betrouwbaarheid van AI binnen en buiten de organisatie. Is het absoluut nodig om AI te gebruiken? Hoe wordt de betrokkenheid en de inspraak van de stakeholders, zoals de medewerkers, de klanten, de leveranciers, de toezichthouders en de samenleving, bevorderd? Hoe wordt de ethische reflectie en de morele afweging over de inzet van AI gefaciliteerd? Hoe wordt de organisatie aangesproken en aanspreekbaar op de gevolgen van AI voor de betrokkenen en de maatschappij?

De Europese Unie is in een vergevorderd stadium met de regulering van AI in de vorm van de EU AI Act. Als gevolg van deze wet worden AI systemen in 4 risicoclassificaties ingedeeld. Aan elke classificatie zijn bepaalde verplichtingen voor de gebruikers verbonden. Hoe hoger het risico, hoe meer je openheid van zaken je moet geven. In sommige gevallen moet je gebruikers ook een niet-AI alternatief kunnen aanbieden. Hoewel invoering van de wetgeving nog even gaat duren, is het verstandig om als een bedrijf met AI aan de slag gaat, alvast rekening te houden met deze toekomstige verplichtingen.

In een wereld waarin AI niet meer weg te denken is, moeten toezichthouders en commissarissen zorgen dat organisaties bewust omgaan met de (ethische) dilemma’s van AI. Bias in AI is een complex en groeiend probleem dat niet mag worden genegeerd. Door bewustzijn te creëren, ethische richtlijnen vast te stellen, en een veilige omgeving te creëren waarin bestuurders transparant zijn en verantwoording afleggen, kunnen toezichthouders en commissarissen een actieve bijdrage leveren en invulling geven aan hun digitale verantwoordelijkheden.

 

Voor meer informatie over de rol van AI, kun je de volgende bronnen raadplegen:

Iris van Rooij, Professor aan de School of Artificial Intelligence van de Radboud Universiteit publiceert regelmatig artikelen over de dilemma’s in AI.

Toezicht op AI & Algoritmes, een document van de Autoriteit Persoonsgegevens dat het toezichtkader en de organisatie van toezicht op AI en algoritmes toelicht.

Algoritmes, een site van de rekenkamer waar het gebruik van algoritmes door de overheid wordt getoetst, inclusief een toetsingkader.

Recommendation on the Ethics of Artificial Intelligence is een rapport van UNESCO, dat door alle lidstaten is geaccepteerd.

Partner,

Future of Work, Digitalisering