Skip to Content

Datamiddag 2024

Op deze pagina is ook content beschikbaar exclusief voor leden Log in voor toegang of vraag account aan.

Datamiddag 2024

Discriminative AI is de meest gebruikte vorm van algoritmes voor machine learning. Iedereen is het erover eens dat je discriminative AI op een verantwoorde en ethische manier moet inzetten. Met het Ethisch kader in 2020 hebben verzekeraars een belangrijke stap gezet om discriminatie tegen te gaan. Maar hoe houd je de toepassing van discriminative AI eerlijk? Kan je discriminative AI wel gebruiken zonder te discrimineren? Benieuwd naar het antwoord op deze belangrijke vragen? Kom dan naar de Datamiddag op 26 september met Data science coach, Daniel Kapitan, die samen met jou kijkt hoe we AI op een verantwoorde manier kunnen inzetten! Dat wil je niet missen. Meld je vandaag nog aan! 
Aanmelden kan t/m woensdag 25 september 12.00 uur

Op 26 september verkent Kapitan (vanuit het Ethisch kader) paradoxen en tegenstellingen om vervolgens met elkaar een handzaam en werkbaar perspectief vast te stellen waarmee verzekeraars AI kunnen ontwikkelen én toepassen. Dit alles vanuit de grenzeloze morele ambitie van Kapitan om “anderen helpen meer met data te doen“. Zo werkt de Data science coach aan vraagstukken op het gebied van data-gedreven onderzoek, ontwikkeling en digitalisering. “Vanuit deze rol help ik organisaties met het vergroten van hun data-vaardigheden, bijvoorbeeld door het bouwen van nieuwe afdelingen of het begeleiden van data-gedreven innovatieprogramma’s. Ik breng expertise samen op het gebied van data- infrastructuur, data-engineering, algoritmiek en datavisualisatie. Daarbij heb ik vaak de rol als verbinder tussen de dagelijkse praktijk in de teams en het bestuur,” vertelt Kapitan.
Wat hem vooral drijft is zijn optimisme over de potentie van machine learning voor maatschappelijke vraagstukken. “Tegelijkertijd zie ik de zorgen die leven ten aanzien van veilig, transparant en verantwoord gebruik van data en algoritmes,” zo benadrukt hij. “Daarom streef ik ernaar om de ‘taal’ van datawetenschappen voor een steeds groter publiek toegankelijk te maken. Ik ben een vakliefhebber en draag dat, naast mijn projectwerk, graag uit als Fellow en docent bij het Eindhoven AI Systems Institute (EAISI) aan de TU Eindhoven.

Bestemd voor
Het hele programma staat open voor zowel leden van het Verbond van Verzekeraars als voor andere geïnteresseerden.
Deelname is vooral interessant voor data analisten, data scientists, data managers, data engineers, data stewards.

Programma
Aanvang:    13.00 uur (inloop vanaf 12.00 uur met lunch)
Einde:         17.15 uur (met aansluitend netwerkborrel)

12.00 Inloop met lunch 
13.00 Opening door Jos Schaffers
13.30 Eerste ronde deelsessies
14.20 Tweede ronde deelsessies
15.15 Pauze
15.45 Derde ronde deelsessies
16.35 Keynote Daniel Kapitan
17.15 Afsluiting en netwerkborrel

Informatie over de deelsessies
Kies bij inschrijving drie van onderstaande deelsessies (één per ronde). Wij houden zoveel mogelijk rekening met jouw voorkeur. Per deelsessie is er steeds ruimte voor een maximum aantal deelnemers; de definitieve indeling hangt daarom af van het aantal aanmeldingen per sessie.

: geen tot weinig getallen en functies

: enkele getallen en functies

: veel getallen en functies

Ronde 1

1. De AI-Act: welke impact heeft deze wet en hoe ga je ermee aan de slag? – Considerati & Deeploy

Waarom de AI-Act? Is de AI-Verordening van toepassing op mijn organisatie? Welke eisen stelt deze verordening? Hoe zorg ik voor compliance? En wat zegt de wet over fairness, transparency en impact assessments? Deze en andere vragen behandelt Bram Hoovers, Director Legal bij Considerati, een gespecialiseerd consultant, in samenwerking met Deeploy/Maarten Stolk. Bram adviseert klanten op strategisch niveau over dataprotectie- en privacyrecht. Door zijn inhouse ervaring is hij een pragmatische business partner en trusted advisor, die zijn diepgaande kennis gebruikt voor praktische oplossingen. Zijn inzichten in het privacyrecht zet hij om in waardevolle lessen voor AI-governance waardoor je strategieën niet opnieuw hoeft uit te vinden. Bram is gecertificeerd informatie privacy professional (CIPP/E) van de International Association of Privacy Professionals (IAPP). Hij heeft de VPR-A specialisatieopleiding Privacy- en gegevensbeschermingsrecht afgerond. Deeploy is een bedrijf dat een platform aanbiedt om Machine Learning modellen op een verantwoorde en uitlegbare manier in te zetten. Maarten Stolk is datascientist en mede-oprichter van dit jonge bedrijf, dat in 2023 door Deloitte werd bestempeld als 1 van de 3 meeste innovatieve en disruptieve start-ups in Nederland. Deeploy heeft diverse klanten in verschillende sectoren, waaronder de financiële sector.

2. Governance om doorloop van dataprojecten te verkorten - OHRA

In deze break-out gaat datascientist Antal Nusselder in op de vraag hoe OHRA via governance bij datagedreven oplossingen het (innovatie)proces versnelt. Want ook de datascientists van OHRA willen modellen snel in productie krijgen. Maar dat vraagt om zorgvuldige afwegingen rondom privacy, transparantie, klantbelang etc. Hoe doe je dit nu zo, dat het geen jaren kost om tot productie over te gaan? Want volgens Antal hoeft governance helemaal geen gedoe op te leveren.

3. Uitlegbare en Eerlijke AI voor Verzekeraars: hoe leg ik mijn algoritme uit en hoe weet ik wanneer differentiatie ook discriminatie is? - Hogeschool Utrecht

Voorkom boetes en imagoschade en gebruik AI eerlijk, uitlegbaar en verantwoord. De Hogeschool Utrecht bespreekt in deze break-out sessie twee onderzoeken naar verantwoorde AI. Henry Maathuis bespreekt een recent onderzoek dat de menselijke aspecten van uitlegbare AI in kaart brengt. In veel bestaand onderzoek ligt de focus op het evalueren van uitlegmodellen zonder voldoende aandacht te besteden aan menselijke factoren, zoals het gemak waarmee de uitleg begrepen wordt of de tevredenheid van de gebruikers met deze uitleg. Om deze kloof te overbruggen, ontwikkelt het onderzoeksteam momenteel een checklist die specifiek is ontworpen om de effectiviteit van uitlegbare AI te meten, rekening houdend met deze menselijke aspecten. Deze checklist zal helpen bij het beoordelen van hoe goed AI-systemen hun uitleg kunnen communiceren en hoe gebruikers deze uitleg ervaren en begrijpen. Rijk Mercuur vertelt over het onderzoek dat hij is begonnen om verzekeraars en data scientist te helpen om te bepalen wanneer differentiatie discriminatie is. Niemand wil discrimineren, maar differentiatie is essentieel voor goedwerkende algoritmes: we zullen dus een balans moeten zoeken tussen rendement en eerlijkheid. Welke stappen kunnen we doorlopen om stapsgewijs te bepalen of differentiatie te verantwoorden is? Rijk presenteert zijn eigen stappenplan hiervoor en bespreekt de behoeftes en best practices uit de praktijk.

4. Differentiatie of discriminatie?

Mag je een opstalverzekering weigeren voor een woonwagen? Of een overlijdensrisicopremie differentiëren naar postcode? En welke risicoprofielen zijn toegestaan voor het opsporen van verzekeringsfraude? Datagebruik voor premiedifferentiatie of voor effectievere fraudebestrijding zijn voor veel verzekeraars niet weg te denken. En geavanceerde (AI-)technieken dienen zich aan. Maar er zijn grenzen aan wat wettelijk is toegestaan. Guido Terpstra van het College voor de Rechten van de Mens legt in deze sessie uit welke grenzen en verplichtingen het non-discriminatierecht stelt, en welke ontwikkelingen er op dit vlak zijn te verwachten. Een niet te missen sessie voor iedereen die zich bezighoudt met datatoepassingen voor premiedifferentiatie en fraudedetectie.

5. Data en AI in de praktijk

In deze sessie gaan Stichting VbV/GraphPolaris en Conclusion Intelligence dieper in op Data en AI in de praktijk.

In het eerste deel van deze sessie zullen Stichting VbV & GraphPolaris je meenemen in de samenwerking tussen verzekeraars, publieke diensten & audit organisaties bij het bestrijden van fraude. Zij hebben de handen bijeengebracht om d.m.v. graph database en visualisatie-/analysetechnieken meer datagedreven en actiegericht inzicht geven in de hoofdoorzaak van het misbruik van autoverzekeringen- en claims.

Adil Bohoudi (Director Business Innovation & Development bij Conclusion Intelligence) vormt met zijn bijdrage het tweede deel van deze deelsessie Data en praktijk. Conclusion Intelligence heeft een Responsible AI Framework ontwikkeld dat handvatten biedt voor het beheersen van risico’s op een manier die past bij de cultuur en werkwijze van de organisatie. Zo ondersteunt Conclusion Intelligence de succesvolle implementatie van AI bij haar klanten op een innovatieve en verantwoorde manier.

Ronde 2

6. Hoe audit je een algoritme? - KPMG

In deze sessie gaat Frank van Praat, director responsible AI bij KPMG, in op de vraag hoe je een algoritme kan auditen. Waar moet je dan aan denken? Wat leg je vast en hoe zorg je ervoor dat de uitvoeringslast beheersbaar blijft? Frank beschikt over ruime ervaring in de praktijk bij overheden en de financiële sector. Hij combineert in deze break-out zijn kennis en kunde met de laatste stand van zaken qua regelgeving, waaronder de AI-Act en DORA.

7. Verantwoord modelleren in de praktijk - IBM

Hoe draagt IBM met technologie bij aan de ethische omgang met data? Via allerlei research-projecten binnen diverse domeinen, waar risico vaak een rol speelt, is het IBM gelukt om vanuit fairness, explainability, robustness zowel klassieke als de huidige large languagemodellen operationeel te maken vanuit open source. Damiaan Zwietering laat graag zien wat er komt kijken bij dergelijke implementaties van model naar  product. Ook vertelt hij hoe je hierbij de link legt tussen de technische evaluatie van modellen en de wet- en regelgeving zoals de AI-Act.

8. ‘AI in praktijk: lessons learned bij bouwen en deployen van data science use cases’

Wat zijn de beste manieren om datascience op een verantwoorde maar ook vlotte manier in te zetten en modellen uit te voeren? Yuliya Sapega heeft de afgelopen jaren in verschillende sectoren gewerkt als Manager (Advanced) Analytics: bij een luchtvaartmaatschappij, een grote verzekeringsmakelaar, een gemeente en recent bij Ikea. Volgens haar willen veel bedrijven datascience op een verantwoorde manier inzetten, en dat is een prima streven, maar het leidt vaak ook tot extra administratieve rompslomp die datascienceprojecten weer vertragen. Denk aan model cards, algoritmeregisters en governance afspraken. Yuliya scheidt de zin van de onzin en laat zien hoe je verantwoordelijkheid en snelheid optimaal kunt combineren. Wil je weten hoe datascience in andere sectoren toegepast wordt en welke waardevolle lessen daaruit te leren zijn? Leg je oor dan te luisteren bij deze sessie met Yuliya Sapega.

9. Explainable Boosting Machines - Kapitan

In deze sessie licht Daniël Kapitan toe hoe Explainable Boosting Machines werken en waarom hij denkt dat deze modellen die zijn gebaseerd op Generalized Additive Models en regression splines onder de AI-Act het meest geschikt zijn voor wat betreft AI-gebruik in hoog risico gevallen. Wil jij leren hoe je deze techniek inzet en hoe je tegelijkertijd voldoet aan de eisen van de AI-Act? Kom dan zeker naar deze sessie. Daniel is docent aan de TU
Eindhoven en heeft veel praktijkervaring in het ontwikkelen van modellen in hoog risico
situaties.

Ronde 3

10. Explainable AI; een moderne visuele aanpak om modelgedrag uit te leggen - XAIVA

Dennis Collaris en David van Daalen zijn medeoprichters van Xaiva: een Nederlandse start-up die een visual analytics platform hebben ontwikkeld om het gedrag van ML modellen te begrijpen en uit te leggen. De technologie is gebaseerd op 6 jaar academisch onderzoek en ontwikkeling in de praktijk samen met een grote Nederlandse verzekeraar. Leer in deze sessie alles over explainability in de praktijk, en de unieke mogelijkheden die interactieve visualisaties bieden aan de hand van een live demo.

11. IAMA (impact assessment mensenrechten en algoritmes): Tips & tricks – Iris Muis

Iris Muis ontwikkelde vanuit Data School, Universiteit Utrecht het ‘Impact assessment mensenrechten en algoritmes’ (IAMA), verplicht onder de AI-Act. Inmiddels bestaat het 3 jaar en zijn er veel 'best' - en 'worst practices' verzameld. Kom naar deze break out om van de bron te leren hoe je zo’n impact assessment uitvoert.

12. Hoe de publieke sector wél alles uit AI haalt 

Aan de hand van praktische voorbeelden laten Vincent Jansen, data-analist bij het NIPV en Fabian Langer van Isatis Business Solutions zien hoe zij met behulp van de juiste AI-tooling een onderzoek naar de aanrijtijden van voorrangsvoertuigen maar liefst 10x sneller hebben uitgevoerd. Ook gaat Vincent in op het keuzeproces: “In welke situaties kan je beter kiezen voor traditionele machine learning-modellen? En wanneer zet je state-of-the-art technologie in?” Dat die keuze belangrijk is, blijkt uit het resultaat”, stelt Fabian: “De juiste keuze leidt tot snellere inzichten die op hun beurt weer leiden tot betere beslissingen.” Een ander voorbeeld ziet op een anonimiseringsproject om veilig onderzoek te doen op gevoelige data. Want wanneer is een AI-model "goed genoeg" voor productie van gevoelige data? Hoe waarborg je de gegevensverwerking door AI op een ethische manier? Wat heb je daarvoor nodig? Benieuwd naar de antwoorden en meer? Meld je dan snel aan!

13. Data en AI in de praktijk

In deze sessie gaan ITDS en Info Support dieper in op Data en AI in de praktijk.
ITDS neemt je mee in de belangrijkste ins en outs voor jou als organisatie als het gaat om het toepassen van (Gen) AI in de praktijk en het voldoen aan de AI-act. Hoe kun je de organisatie het beste meenemen in het verzamelen van usecases voor AI en wat zijn daarbij de randvoorwaarden? Ook staat ITDS stil bij de cruciale rol van data management. Want zonder goede kwaliteit van data is AI niets waard.
Info Support gaat dieper in op de cruciale factoren waarmee je rekening moet houden voordat je AI in je projecten inzet. Van ethische overwegingen en bias in data tot de transparantie van algoritmes en de noodzaak van robuuste dataveiligheid. Een stevige fundering is essentieel om van AI te profiteren.  

Kosten
Voor medewerkers werkzaam bij een lid van het Verbond van Verzekeraars zijn aan deelname geen kosten verbonden. Deze bijeenkomst valt onder het lidmaatschap.
Weet je niet zeker over jouw organisatie lid is van het Verbond van Verzekeraars check dan de ledenlijst.

Voor medewerkers die aangesloten zijn bij Adfiz en NVGA bedragen de deelnamekosten € 69,- (excl. BTW). Voor overige geïnteresseerden bedragen de kosten € 99,- (excl. BTW).

  • Op deze bijeenkomst zijn de Algemene Voorwaarden van Dienstverlening Verbond BV van toepassing. Door inschrijving verklaar je je akkoord met de Algemene Voorwaarden van Dienstverlening Verbond BV
  • Vanaf inschrijving geldt een bedenktermijn van 14 dagen
  • Plaatsing geschiedt na beoordeling van de inschrijving door de Insurance Academy
  • Facturatie van deze kosten geschiedt vanuit Dienstverlening Verbond BV

Annulering en no-show
Leden
Leden van het Verbond van Verzekeraars kunnen hun aanmelding annuleren tót 48 uur voor de bijeenkomst. Bij latere annulering of no-show wordt € 50,- (excl. BTW) administratie-/organisatiekosten in rekening gebracht. Deze kosten worden niet in rekening gebracht als je je door een collega laat vervangen.
Annuleringen en vervangingen dienen per e-mail te worden doorgegeven aan het organisatiebureau van de Insurance Academy.
Door inschrijving verklaart de deelnemer zich akkoord met bovengenoemde voorwaarden.

Betalende bezoekers
Annulering van de aanmelding is mogelijk tot 14 dagen na inschrijving. Bij latere annulering of no-show is het volledige deelnamegeld verschuldigd. Deze kosten worden niet in rekening gebracht als je je door een collega laat vervangen.
Annuleringen en vervangingen dienen per e-mail te worden doorgegeven aan het organisatiebureau van de Insurance Academy.
Door inschrijving verklaart de deelnemer zich akkoord met bovengenoemde voorwaarden.

PA-certificaat
Deze bijeenkomst draagt bij aan het actueel houden van relevante kennis en kunde over dit thema. Deelnemers ontvangen automatisch een bewijs van deelname (PA-certificaat). Dit certificaat kan onderdeel zijn van eigen maatschappijprogramma’s op het gebied van Permanent Actueel (PA).

PE-punten
Met het bewijs van deelname (PA-certificaat) kan je op de website van het NIVRE (onder Permanente Educatie) zien of aan deze bijeenkomst PE-punten zijn toegekend.

Nadere informatie en vragen
Voor nadere informatie of met vragen kun je contact opnemen met Jos Schaffers. Aan hem kun je eventueel ook reeds vooraf vragen sturen, dan kan hiermee bij de voorbereiding zoveel mogelijk rekening worden gehouden.

Complianceregeling Mededinging
Deelnemers aan dit evenement vallen onder de Complianceregeling Mededinging van het Verbond en worden geacht zich te houden aan de geldende mededingingsregels en met de inhoud van de regeling bekend te zijn.

Privacyverklaring
De Insurance Academy is onderdeel van het Verbond van Verzekeraars. Op de verwerking van persoonsgegevens die aan de Insurance Academy worden verstrekt is daarom de privacyverklaring van het Verbond van Verzekeraars van toepassing. Artikel 5 van die verklaring handelt specifiek over gegevens die worden verstrekt in het kader van deelname aan een activiteit of bijeenkomst van het Verbond (de Insurance Academy).

Sponsoring
Op de datamiddag zal er een sponsormarkt staan. Heeft jouw organisatie hierin interesse, neem dan contact op met Sjoerd Brouwer.

De datamiddag wordt mede mogelijk gemaakt door:

GraphPolaris VbV

ITDS InfoSupport 

Conclusion Intelligence