Lenneke de Voogd over de rol van BTG als bruggenbouwer, ook met kennisplatform
19 dec 2024Sinds kort maakt Lenneke de Voogd deel uit van het bestuur van BTG. Na haar voortrekkersrol binnen het Do IoT Fieldlab maakt ze tegenwoordig vanuit...
Het ethisch bewustzijn bij het gebruik van kunstmatige intelligentie (AI) onder bedrijven en overheden is toegenomen. Aangezien er slechts op enkele gebieden verbeteringen zijn bereikt, blijft het beeld hierover echter diffuus. Een van de redenen is dat slechts 53 procent van de onderzochte organisaties een manager heeft die verantwoordelijk is voor ethische en betrouwbare AI-systemen. Tegelijkertijd is 62 procent van de consumenten van mening dat bedrijven volledig transparant zijn over hoe persoonlijke informatie wordt gebruikt. Vorig jaar lag dit percentage op 76 procent.
Dit blijkt uit een nieuw rapport van het Capgemini Research Institute: “AI and the ethical conundrum: How organizations can build ethically robust AI systems and gain trust”. Voor het onderzoek heeft het Capgemini Research Institute in totaal 2.900 consumenten in zes landen en bijna 900 leidinggevenden ondervraagd in tien landen, waaronder Nederland. De resultaten zijn ook vergeleken met verschillende studies van vorig jaar. Het rapport benadrukt dat een focus op ethische aspecten cruciaal is om het transformatiepotentieel van AI voor het milieu, de economie en de maatschappij te realiseren.
Organisaties zien in toenemende mate de noodzaak om actie te ondernemen met betrekking tot ethische AI-systemen. 45 procent heeft in 2020 een AI-handvest opgesteld (2019: 5 procent) en twee derde (65 procent) van de managers is zich ervan bewust dat AI-systemen mogelijk tot discriminerende beslissingen kunnen leiden. 58 procent geeft ook aan dat ze hun medewerkers hebben geïnformeerd over de mogelijke effecten van het gebruik van AI.
COVID-19 zet transparantie AI-processen onder druk
De studie onderzocht AI-systemen op basis van vier ethische dimensies: ‘verklaarbaarheid’, ‘eerlijkheid’, ‘controleerbaarheid’ en ‘transparantie’. Het rapport concludeert dat in 2020 alleen de verklaarbaarheid is verbeterd: volgens het onderzoek kan 64 procent de werking van hun AI-systemen in eenvoudige taal verklaren. Dit is twee keer zoveel als in 2019. Op dit gebied denkt 40 procent van de AI-ontwikkelaars en 27 procent van de AI-gebruikers in marketing en sales te begrijpen hoe beslissingen door AI worden genomen. Aan de consumentenkant verwacht 71 procent echter dat bedrijven in staat zijn dergelijke beslissingen nauwkeurig te herleiden. Bovendien gaat 66 procent ervan uit dat AI-modellen eerlijk en zonder bias handelen en dat de interacties transparant zijn.
Een herziening van datasets en AI-systemen om een eerlijke en gelijke behandeling van alle groepen te garanderen, wordt uitgevoerd door 65 procent van de organisaties (2019: 66 procent). Het aantal bedrijven dat onafhankelijke audits van hun AI-systemen uitvoert is met één procentpunt gedaald tot 45 procent. Het aantal bedrijven dat transparante informatie verstrekt aan AI-gebruikers over de mogelijke effecten van AI-beslissingen is het sterkst gedaald: van 73 naar 59 procent. In Nederland is dit percentage met 71% overigens onveranderd gebleven. Wereldwijd is er sprake van een lager consumentenvertrouwen. Zo is 62 procent van de consumenten (2019: 76 procent) ervan overtuigd dat bedrijven transparant opereren.
Volgens het rapport is dit indicatief voor de huidige omstandigheden die door COVID-19 zijn ontstaan, maar ook voor de maatschappelijke en ecologische behoeften, de toenemende complexiteit van AI-modellen en een verandering in het consumentengedrag. Deze factoren verstoren allen de functionaliteiten van de bestaande AI-modellen. Nieuwe factoren, waaronder een voorkeur voor veiligheid en een gebrek aan trainingsgegevens voor vergelijkbare situaties uit het verleden, hebben ertoe geleid dat organisaties hun systemen herontwerpen om ze aan te passen aan een nieuwe norm. Deze ontwikkeling zorgt echter ook voor minder transparantie.
Manager voor ethisch verantwoorde IT-systemen
Volgens de studie moeten bedrijven een verantwoordelijke manager in het leven roepen om te zorgen voor ethisch verantwoorde AI-systemen. Denk hierbij aan een Chief Ethics Officer. Momenteel is deze functie in 53 procent van de bedrijven aanwezig. Een ombudsman of hotline, waar klanten en medewerkers terecht kunnen met ethische vragen over AI-systemen, is ook slechts in één op de twee bedrijven beschikbaar.
Daarnaast moeten Chief Executive Officers (CEO’s) en Chief Technology Officers (CTO’s) ervoor kunnen zorgen dat de AI-toepassingen die in hun gebied worden gebruikt, ethische resultaten opleveren.
Zeven maatregelen
Samenvattend benadrukt de studie zeven maatregelen die cruciaal zijn voor het bouwen van een ethisch robuust AI-systeem en die gebaseerd moeten zijn op een sterk fundament van leiderschap, governance en interne processen. Organisaties moeten daarom:
Onderzoeksmethodologie
Het rapport is gebaseerd op een wereldwijde consumenten- en executive survey, die door Capgemini in april en mei 2020 is uitgevoerd. In de consumentenenquête zijn 2.900 consumenten in zes landen ondervraagd, terwijl in de enquête voor executives 884 managers uit tien landen zijn ondervraagd. Zij zijn onder meer actief in de functies Informatietechnologie, AI-ontwikkelaars, datawetenschappers, verkoop, marketing en klantenservice. Deze resultaten zijn vergeleken met de enquêtes van 2019 die in april 2019 en juni 2019 zijn gehouden onder 5.000 consumenten en 722 leidinggevenden. Het ging hierbij toen om onder meer AI-ontwikkelaars, datawetenschappers, verkoop- en marketingteams. Capgemini hield in augustus-september 2020 ook diepte-interviews met een aantal managers uit diverse sectoren, academici en vakspecialisten op het gebied van ethiek in AI.