Kabinet pleit voor transparantie bij inzet kunstmatige intelligentie

Op deze pagina is ook content beschikbaar exclusief voor leden, Log in om toegang te krijgen tot deze content

Het kabinet heeft vandaag een handreiking AI-systeemprincipes voor non-discriminatie gepubliceerd waar Jos Schaffers, de auteur van het Ethisch kader, aan heeft bijgedragen.

De overheid en het bedrijfsleven nemen steeds vaker (semi-)automatisch beslissingen met behulp van algoritmes: een slim stukje programmatuur waarmee de computer leert wat het beste past bij de klant. Het is inmiddels bekend dat het gebruik van kunstmatige intelligentiesystemen (KI-systemen) onbewust kan leiden tot discriminatie. Die wetenschap heeft vorig jaar geleid tot een Ethisch kader, mede gebaseerd op de zeven uitgangspunten voor verantwoorde Artificial Intelligence van de High-Level Expert Group on Artficial Intelligence, een adviesorgaan van de Europese Commissie. “Ook de handreiking leunt hierop en op onze kennis vanuit het Ethisch kader,” vertelt Jos Schaffers, beleidsadviseur big data & Privacy bij het Verbond.

Non-discrimination by design

Zo biedt de handreiking handvaten aan ontwerpers en afnemers die hun KI-systemen discriminatievrij willen maken door al bij het ontwerp ervan goed te kijken naar de aannames die zij gebruiken om het systeem te bouwen. “Zoals wij al zeiden bij de publicatie van het ethisch kader: het gaat er om de ‘computer says no’ te voorkomen.” De tien regels die in het advies gegeven worden om discriminatie te voorkomen ademen dat adagium: betrek belanghebbenden bij de aanleg van een algoritme, zorg voor permanente monitoring, documenteer de keuzes die je maakt ten aanzien van de trainingsdata, zodat je die later kunt reproduceren.

Als computers je CV beoordelen, wie beoordeelt dan de computers?

Verder wordt in de handreiking aangeraden om teams die aan KI-projecten werken divers samen te stellen. Een team van medewerkers met verschillende achtergronden ziet sneller of een aanname in het systeem mogelijk tot uitsluiting leidt. Zo blijkt uit onderzoek van het College dat systemen die automatisch CV's beoordelen van werkzoekenden soms net zulke discriminerende vooroordelen hebben als mensen.

Divers en inclusief personeelsbeleid

Een soortgelijk vraagstuk kwam onlangs aan de orde tijdens een webinar van het Verbond om verzekeraars er meer bewust van te maken dat de huidige wervings- en selectieprocedures vaak niet voldoende inclusief en divers zijn. Dit leidt veelal tot nieuwe medewerkers waarvan de achtergrond en kenmerken (volledig) overeenkomen met het profiel van het zittend personeel. Tijdens het webinar werden inzichten en adviezen gedeeld over het recruitment-proces, vanaf het opstellen van de vacature tot en met selecteren van de uiteindelijke kandidaat.


Was dit artikel nuttig?