Steeds meer gemeenten, overheden en provincies zetten algoritmen in ter ondersteuning van publieke taken. Daarom wordt vanuit het ministerie van Binnenlandse Zaken en Koninkrijksrelaties (BZK) beleid ontwikkeld dat overheden helpt om algoritmen op een verantwoorde manier in te zetten. Om vooringenomenheid van algoritmische modellen te voorkomen, is de Handreiking AI-systeemprincipes voor non-discriminatie ontwikkeld (die binnenkort aan de Tweede Kamer zal worden toegezonden).
Dit meldt demissionair staatssecretaris Raymond Knops van BZK in een brief na Kamervragen over mogelijk vooringenomenheid van algoritmen die de Gemeente Rotterdam inzet. De handreiking bevat een overzicht van de belangrijkste non-discriminatie wetgevingen allerlei voorbeelden van direct en indirect onderscheid die mogelijk kunnen leiden tot discriminatie. De handreiking helpt overheden om al in de ontwikkelfase van een algoritmisch systeem discriminerende patronen in modellen en gegevens zoveel mogelijk te identificeren, te voorkomen en te bestrijden. In de handreiking is een vertaalslag gemaakt van essentiële juridische kaders naar operationele ontwerpprincipes, aldus Knops.
Impact assessment mensenrechten en algoritmen
Binnenkort publiceert het ministerie daarnaast een impact assessment mensenrechten en algoritmen (IAMA). Deze assessment helpt overheden om risico’s voor mensenrechten waaronder non-discriminatie bij de ontwikkeling van systemen in kaart te brengen en af te zwakken. Verschillende instrumenten voor een verantwoorde inzet van algoritmen komen samen in de toolbox ethisch verantwoord innoveren voor overheden zo meldt Knops.
“Algoritmes kunnen veel toegevoegde waarde bieden en inzichten opleveren die anders niet beschikbaar zouden zijn. Het is echter van groot belang dat algoritmes op een verantwoorde manier worden ingezet. Het is dan ook goed dat het ministerie van Binnenlandse Zaken en Koninkrijksrelaties gemeenten, overheden en provincies hierbij steunt met de Handreiking AI-systeemprincipes voor non-discriminatie. Overheden kunnen deze in de ontwikkelfase van algoritmische systemen inzetten voor het tegengaan van discriminerende patronen in modellen en gegevens”, zegt Petra Claessen, directeur BTG/TGG.