Toenemende fraude en veranderend speelveld
In 2024 stelden verzekeraars 9.070 gevallen van verzekeringsfraude vast. Bijna 1.100 meer dan een jaar eerder. Of die stijging (mede) het gevolg is van het gebruik van AI, valt niet met zekerheid te zeggen. Wel blijkt uit de praktijk én de reacties van de aanwezige fraudespecialisten in de zaal dat men steeds vaker te maken krijgt met (gedeeltelijk) door AI gegeneerde documenten.
In dat licht acht Van der Salm de inzet van AI door verzekeraars onmisbaar. Ze typeert het als een digitale wapenwedloop. “Als de fraudeur zijn werkwijze aanpast, kan de verzekeraar niet achterblijven. Voor verzekeraars is AI dus geen luxe, maar een noodzakelijke voorwaarde om effectief te kunnen blijven optreden tegen fraude.”
Kansen, maar ook risico’s: efficiëntie versus rechtsbescherming
Verzekeringsfraude kost huishoudens gemiddeld ongeveer 100 euro per jaar. Om het collectieve risico beheersbaar te houden, is efficiënte en effectieve fraudebestrijding noodzakelijk. Benut daarom de mogelijkheden en kansen van AI”, zegt Van der Salm, “maar ga er zorgvuldig mee om.”
Want waar AI de slagkracht van fraudeonderzoek vergroot, schuurt het tegelijkertijd met fundamentele beginselen als de rechtsbescherming en privacy van betrokkenen, de eisen van transparantie en het recht op privacy. Én de vraag of uitkomsten voldoende uitlegbaar en bewijsbaar zijn. Van der Salm staat daarom stil bij de belangrijkste risico’s.
Kwaliteit van input
In de eerste plaats de kwaliteit van de input, want een AI-toepassing is zo goed als de historische data waarmee je het traint. Zijn die data onvolledig, eenzijdig of vervuild? Dan kan dat leiden tot vertekeningen, ongerechtvaardigde verdenkingen en discriminatie. De solidariteit, één van de belangrijkste pijlers van ons verzekeringssysteem, kan hierdoor onder druk komen te staan.
De black box
“Ten tweede, de black box”, vervolgt ze. Het grootste probleem van met name generatieve AI is de beperkte inzichtelijkheid en transparantie. “Als niet uitlegbaar is hoe een uitkomst tot stand is gekomen, raakt dat rechtstreeks aan de rechtmatigheid van de aanleiding van onderzoek én het bewijs van fraude.
Privacy
De Algemene Verordening Gegevensbescherming, de AVG, is volgens Van der Salm vanzelfsprekend ook een aandachtspunt. De verwerking van persoonsgegevens moet namelijk altijd berusten op een rechtmatige grondslag en voldoen aan de beginselen van doelbinding, dataminimalisatie en proportionaliteit. “Daarnaast schrijft artikel 22 AVG voor dat besluitvorming in beginsel niet zuiver geautomatiseerd mag zijn, zonder betekenisvolle menselijke tussenkomst. “Onzorgvuldige inzet van AI kan leiden tot onrechtmatige gegevensverwerking en daarmee tot juridische risico’s”, waarschuwt ze.
“De AI Act is met zo’n 144 pagina’s pittige kost. De AI-opinie van EIOPA is een welkome vertaling.”
Aan wet- en regelgeving verbonden
Juist om grip te krijgen op deze risico’s heeft de Europese wetgever de AI Act vastgesteld. Die wet bevat bindende minimumnormen voor leveranciers en gebruikers van AI-toepassingen en onderscheidt vier risicocategorieën: Onaanvaardbaar risico, Hoog risico, Beperkt risico en Minimaal risico.
In de categorie Hoog risico vallen onder meer AI toepassingen die de toegang tot essentiële diensten kunnen beperken. “Zorg en levensverzekeraars worden daarbij expliciet genoemd,” merkt Van der Salm op, “omdat de inzet van AI gevolgen kan hebben voor de toegang tot die verzekeringen.” Die toepassingen moeten daarom aan strenge eisen voldoen rondom risicobeheer, data, transparantie, menselijke controle en veiligheid.
Maar vallen voor fraudedetectie gebruikte AI-toepassingen ook in de categorie Hoog risico? Dat ligt genuanceerder. Op grond van overweging 37 van de AI Act is AI voor fraudedetectie in beginsel geen Hoog risico, omdat het niet gaat over de toegang tot een product of dienst, maar over de bescherming tegen misbruik. Maar let wel: zodra de AI output leidt tot directe besluitvorming, óf wordt gecombineerd met een andere Hoog risico toepassingen, verschiet de risicocategorie weer van kleur.
Van der Salm: “De AI Act is met ruim 140 pagina’s pittige kost, wat de toepassing en vertaling naar de praktijk uitdagend maakt”. Daarnaast moet de AI-act in samenhang worden bezien met sectorspecifieke richtlijnen en verordeningen, zoals het Solvency II-raamwerk, de Insurance Distribution Directive (IDD) en de Digital Operations Resilience Act (DORA). “Hierdoor bestaat een kans op overlapping, die in de praktijk onvermijdelijk tot onnodige complexiteit en onzekerheid zal leiden”, aldus Van der Salm. Denk bijvoorbeeld aan de Solvency richtlijn die van verzekeraars doeltreffend risicobeheer en governancesystemen eist, terwijl ook de AI Act een systeem voor kwaliteitsbeheer vereist.
In dat licht noemt Van der Salm de AI-opinie van Europese toezichthouder EIOPA als belangrijke vertaalslag. Deze richtinggevende opinie over het gebruik van AI en de vereiste governance en risicobeheersing vormt een leidraad voor de nationale toezichthouder op het gebruik van AI door verzekeraars. Een afzonderlijk, formeel en uitputtend toezichtskader, speciaal voor AI, is vooralsnog niet door AFM en DNB vastgesteld. Wel zijn in het rapport De impact van AI op de financiële sector en het toezicht duidelijke uitgangspunten, aandachtspunten en toezichtambities gepubliceerd die in de praktijk als een (de facto) toezichtraamwerk functioneren. En tot slot is er het Ethisch kader voor datagedreven toepassingen van het Verbond van Verzekeraars. Dit kader fungeert als een vorm van zelfregulering voor leden en bestaat uit 7 vereisten voor betrouwbare AI.
“De grootste nachtmerrie van iedere fraudeonderzoeker: een rechter die het onderzoek onrechtmatig acht.”
AI effectief en juridisch houdbaar inzetten
Maar wat is van dit alles nu de afdronk? En wanneer kan AI effectief en juridisch houdbaar worden ingezet? Hiervan is volgens Van der Salm sprake als de inzet van AI voldoet aan de vereisten van:
- Transparantie en uitlegbaarheid;
- Databescherming en non-discriminatie;
- Governance en verantwoording;
- Menselijke controle.
Op dat laatste punt is een sleutelrol weggelegd voor de fraudespecialist. “De uitkomst van een AI-toepassing is namelijk geen vaststelling van fraude, maar een signaal of indicator”, benadrukt Van der Salm. Dat betekent dat fraudespecialisten de gevonden signalen en/of patronen moeten analyseren, contextualiseren en valideren, en vervolgens een weloverwogen beslissing moeten nemen over het al dan niet – proportioneel – opvolgen daarvan. Cruciaal hierbij is de verantwoording. Want bij gebrek hieraan bestaat het risico dat een rechter het fraudeonderzoek alsnog als onrechtmatig beoordeelt en terzijde legt. “Bij verantwoord gebruik maken de mens en AI samen het verschil: slimmer, eerlijker en daadkrachtiger in strijd tegen fraude”, zo besluit Van der Salm.
Tot slot
Een AI-systeem kan duurzaam worden ingezet bij fraudeonderzoek als:
- het AI-systeem signaleert;
- de mens controleert en onderzoekt;
- proportionaliteit en subsidiariteit worden bewaakt;
- de uitkomst en de beslissingen uitlegbaar zijn;
- gebruik goed wordt vastgelegd.