In de zomer van 2020 heeft het Verbond het 'Ethisch kader datagedreven besluitvorming voor zijn leden geïntroduceerd. Het gaat bij dit kader om open normen, waarbij iedere verzekeraar in de eigen praktijk de precieze scope moet bepalen. In een serie artikelen vertellen verzekeraars hoe zij invulling geven aan het Ethisch kader.
Bart Rentenaar en Gunter Lemmen werken bij Athora Netherlands, dat uit de verzekeringsmerken Zwitserleven en Reaal bestaat. Beide mannen waren, in samenwerking met KPMG, al wat langer bezig met ethische vraagstukken toen het Verbond zijn Ethisch kader presenteerde. “Wij willen graag in de frontlinie zitten”, vertelt Rentenaar.
Bart Rentenaar
Wat is ethiek?
Lemmen op zijn beurt benadrukt dat hij in 2016 ethiek meer op zijn netvlies kreeg, omdat hij was begonnen met een opleiding tot data-expert. “Een van de onderwerpen die aan de orde kwam, was legal & ethics. Ik heb toen een stuk geschreven over zelfrijdende auto’s die in onvermijdbare botsingssituaties terecht kwamen. Dat zette mij zo aan het denken dat we een workshop hebben gemaakt voor ons bedrijf om het onderwerp data ethiek intern op de kaart te zetten.”
Met een fictieve casus (het verkopen van verzekeringen via een chatbot) zijn medewerkers van diverse afdelingen uitgedaagd. Rentenaar: “We wilden mensen vooral laten meedenken. Wat betekent het voor ons als AI bepaalt wie wel/niet wordt geaccepteerd voor een verzekering? Gaat het goed als AI voorschrijft wie welke premie moet betalen? Hoe bewaken we de privacy? En wat betekent dat voor de solidariteit?”
Dilemma’s
Superleuk om te doen, maar de exercitie levert ook de nodige dilemma’s en vragen op. Lemmen: “Stel dat je als verzekeraar kunt zien dat een klant op Funda zit, is het dan oké om hem te benaderen voor een verzekering? Mag de klant dat van ons verwachten? Wat is zijn reactie? En als je wilt uitzoeken hoe vitaal je medewerkers zijn, kijk je dan naar het aantal toetsaanslagen dat iemand per minuut produceert? Of is dat te veel Big Brother? De vraag kwam onvermijdelijk op ons af: wat vinden we wel en wat niet oké?”
“Iedereen vindt het een mooie gedachte als een werkgever zijn mensen wil helpen vitaal te blijven”, vervolgt Rentenaar. “Elke keer als we het erover hadden, kwamen er nieuwe vragen bij, maar vragen helpen je juist om de grenzen met elkaar te ontdekken. Na een aantal workshops hadden we als organisatie echt kunnen proeven en voelen waar voor ons de grens ligt.”
"De vraag kwam onvermijdelijk op ons af: wat vinden we wel en wat niet oké?"
Ethische richtlijnen
In samenwerking met KPMG heeft Athora Netherlands vervolgens de uitslagen van de diverse workshops uitgewerkt en uiteindelijk zijn er tien ethische richtlijnen opgesteld, variërend van Wij discrimineren niet tot We schenden de privacy van de mensen om ons heen niet. Rentenaar: “Goed om te zien was dat solidariteit onder onze collega’s heel hoog scoorde. Dat is dus ook een van onze belangrijkste guidelines geworden die bepalen hoe wij met AI en data omgaan.”
Na het opstellen van de guidelines wachtte de praktijk. Want zoals Lemmen het zo mooi verwoordt: “Het was natuurlijk leuk en aardig dat we die richtlijnen op papier hadden staan, maar veel belangrijker was de vraag hoe we er in de praktijk mee om moesten gaan.”
Er zijn zeven stappen (zie kader) gekomen en alle zeven moeten iedere keer opnieuw worden doorlopen. “Als er een nieuwe AI-toepassing is bedacht, maar bij een van de stappen moeten we het antwoord schuldig blijven, dan gaan we er dus niet mee verder”, legt Lemmen uit.
Het AI-assessment dat Athora Netherlands voor een AI-toepassing gebruikt, bestaat uit zeven stappen:
1. Purpose
2. Customer/Business impact
3. Benefits definition
4. Solution choice
5. Legal, ethical, data en robustness
6. Overall assessment
7. Decision
Rentenaar licht het tweede punt, de Customer/Business impact, toe. “Stel dat wij in de toekomst automatisch zouden willen prijzen, dan moeten we eerst heel goed nadenken over de impact. Je kunt toch niet tegen een klant zeggen: ‘u vindt de premie te hoog?’ Ja, excuses, maar dat doen wij niet, dat doet de AI.”
Lemmen op zijn beurt tilt punt 5 eruit. “Die stap is misschien wel het belangrijkste. Onder Legal vragen we ons af of het mag conform de geldende wet- en regelgeving. Ethical houdt in dat we onze eigen guidelines en het Ethisch kader van het Verbond er op naslaan. Bij data volgt een check of alle data relevant, juist en zonder vooroordelen zijn. En onder robustness vallen stappen als het testen of de AI-toepassing wel veilig genoeg is tegen hacken en het continu monitoren van de werking van het AI-model.”
Algoritme-register
En ten slotte is er, als klap op de vuurpijl, zo’n twee tot drie maanden geleden een speciaal register op het intranet van Athora Netherlands geplaatst. “We hebben daar nu zes applicaties op staan die in Jip- en Janneke-taal aan de collega’s worden uitgelegd, maar het is nadrukkelijk als een groeimodel bedoeld”, vertelt Rentenaar. Dat geldt zowel voor het aantal assessments als voor de toepassing. “Wij zijn intern begonnen, met een eigen register op ons eigen intranet en voor onze eigen medewerkers, om meer inzicht te geven in wat het bedrijf doet met AI en om te testen of de uitleg voor iedereen begrijpelijk is. Wij hebben ons bij deze interne transparantie laten inspireren door de gemeente Amsterdam die diverse algoritmes, met alle ins en outs, op haar website heeft staan.”
Het doel van beide mannen is dan ook om het register uit te breiden met nieuwe applicaties en zo volledig transparant te zijn. Aan onderwerpen voorlopig in ieder geval geen gebrek. “We hebben nog een lijst met zo’n 130 initiatieven, dus daar zijn we nog wel even mee bezig.”
Was dit nuttig?