Skip to Content

Catelijne Muller, lid van de EU High Level Expert Group voor AI

Op deze pagina is ook content beschikbaar exclusief voor leden Log in voor toegang of vraag account aan.

“Mensen moeten de controle houden bij AI”

Ze heeft geen stappenteller, geen fitnessapp en zit niet (meer) op Facebook. “Ik doe wel mee op Twitter en LinkedIn, dus ik zit nog niet helemaal in een hut, maar het zijn bewuste afwegingen.” Catelijne Muller is een van de sprekers op het Fit for the Future Event. Ze is rapporteur bij de EU en heeft een duidelijke mening over AI: “De mens moet ‘in command’ zijn.”

Het interview vindt plaats in het bedrijfsrestaurant UP Town dat zich op de zeventiende verdieping van het UP Building in Amsterdam bevindt. Muller houdt daar kantoor met de Alliantie voor AI (ALLAI). Het uitzicht is fabuleus. Rondom zitten ramen, zodat het eigenlijk niet uitmaakt waar je staat en naar buiten kijkt. “Het is niet helemaal toevallig dat we hier zo nu en dan conferenties houden”, vertelt Muller lachend. 
Op de ochtend van het interview heeft het FD uitgepakt met een uitgebreid artikel over artificial intelligence waarin min of meer de noodklok wordt geluid. Volgens de medici die aan het woord komen, hinderen de strenge privacyregels uit Europa het medisch onderzoek in ons land en zetten deze zelfs een rem op de ontwikkelingen van diverse behandelingen. Bovendien raken we achter op Amerika. Muller schudt haar hoofd als de vraag wordt gesteld of dat ook niet een beetje haar schuld is, als lid van de High-Level Expert Group on AI. “Dat is dus de hele discussie. Sommigen doen alsof het een race is, en wij achterlopen op de VS en op China. Ze denken heel erg in termen als The winner takes it all.

In gesprek met

Dit is het achtste gesprek in een reeks van interviews met een belangrijke stakeholder over een actueel thema. In deze In gesprek met … komt Catelijne Muller aan het woord.

Muller is lid van de EU High Level Expert Group on AI en voorzitter van ALLAI (Alliantie voor AI). Ze is ervan overtuigd dat de mens ‘in command’ moet zijn bij AI en maakt zelf in het dagelijks leven ook heel bewuste afwegingen. Voor haar geen fitness app of een stappenteller. “Die data zijn van mij en dat wil ik graag zo houden.”

Eerdere interviews in deze reeks zijn verschenen met Margot Ribberink (over het weer), Brenno de Winter (over ICT-beveiliging), Mireille Hildebrandt (over Big Data), Marjolein ten Hoonte (over de arbeidsmarkt), Hans de Moel (over het klimaat), Theo Kocken (over pensioen) en Edgar Karssing (over solidariteit).

Wat is daar verkeerd aan? Nederlandse artsen en onderzoekers moeten zich nu ‘behelpen’ met Amerikaanse gegevens, omdat daar meer mag. Ik snap wel dat ze daar chagrijnig van worden.

“Het is niet alleen een verkeerde, maar vooral een gevaarlijke discussie. Ik geloof het meteen als artsen zeggen dat ze met meer data betere diagnoses kunnen stellen. Prima. Graag zelfs, zou ik zeggen, maar dan wel binnen de regels. De mogelijkheden om binnen de regels om te gaan met patiëntgegevens zijn groter dan mensen denken. Ze weten vaak niet wat wel en wat niet mag, en gooien de handdoek veel te snel in de ring. Dat betekent dat wij duidelijker moeten maken wat wel en wat niet mag. Ik stel altijd de vraag wat mensen liever hebben: move fast and break things? Of move a little slower and fix things?

U vindt niet dat we achterlopen?

“Nee, integendeel. Mensen vergeten dat de Europese economie een van de grootste van de wereld is, met 500 miljoen potentiële consumenten. Bovendien, en dat is misschien wel nog belangrijker, zetten wij op dit moment wereldwijd de standaard neer voor het ethisch en verantwoord gebruik van AI. Vergis je niet, AI is een geweldige technologie, die veel goed kan doen, maar dan moeten we het wel goed managen. Als we dat nu niet doen, krijgen we geheid met repressieve regelgeving te maken.”

U bent lid van de High Level Expert Group die zich inzet voor een verantwoorde ontwikkeling en gebruik van AI. Dat klinkt als een lastige taak?

“Dat is het ook. Wij zijn een onafhankelijk adviesorgaan van de Europese Commissie en hebben twee opdrachten meegekregen. De eerste is het ontwerpen van ethische richtlijnen en de tweede betreft het doen van aanbevelingen over investeringen en regelgeving.”

"Technisch kan alles, maar je moet je steeds afvragen of het ook moet"

"Technisch kan alles, maar je moet je steeds afvragen of het ook moet"

Jullie zijn begonnen met de ethiek?

“Klopt. Vorig jaar zijn onze ethische richtlijnen uitgekomen. Dat is een behoorlijke prestatie voor een groep die uit 52 leden bestaat die echt uit alle hoeken van de samenleving komen. Natuurlijk hebben wij de nodige discussies gehad over wat ethisch is, maar Europa noemt zichzelf een Unie van Waarden en dan moet je dat ook in je voorstellen laten zien.”

Wat stellen jullie voor?

“Wij zijn tot drie hoofdconclusies gekomen. De eerste is dat AI-ontwikkeling en gebruik in lijn met bestaande en toekomstige regelgeving moeten zijn. Daarnaast moet het ethisch verantwoord zijn en tot slot moet het technisch en sociaal robuust zijn. Het is lastig om heel scherpe scheidslijnen aan te brengen tussen ethiek en recht, maar één lijn is wat mij betreft heel helder. En dat is wat ik human in command noem. Technisch kan bijna alles, maar je moet je steeds afvragen of het ook moet. De mens moet de controle houden, in technische zin, maar ook of, wanneer en hoe we AI gebruiken.”

Wat heeft u zelf met AI?

“Ik ben altijd al een beta geweest. Uiteindelijk ben ik de advocatuur ingerold, maar een paar jaar geleden las ik een aantal artikelen over AI. Ik was meteen geïnteresseerd, maar dacht ook meteen: moeten we dat niet een beetje in de gaten houden voordat het fout gaat? Ik ben vervolgens meer in het onderwerp gedoken en heb samen met Robert Went van de WRR een rapport geschreven over de impact van AI voor het Europees Economisch en Sociaal Comité. Wij kwamen op elf impact domeinen uit, waaronder wet- en regelgeving, ethiek, wapens, werk, transparantie, onderwijs en democratie. De veelheid aan onderwerpen geeft al aan hoeveel impact AI heeft op de samenleving.”

Hoe is jullie rapport ontvangen?

“Het trok vooral veel aandacht. Meteen daarna is in Europa de discussie gestart of en hoe we beleid moesten gaan maken.”

AI is hot. Iedereen weet min of meer wat het inhoudt, maar het blijft lastig uitleggen. Hoe doet u dat?

“Ik vind dat ook lastig. Sterker nog, als je zoekt naar een goede definitie, dan is die er gewoonweg niet. Wetenschappers zijn het er niet over eens. Ik zeg altijd dat de huidige AI uit slimme, autonome systemen bestaat die op basis van veel data patronen kunnen herkennen en beslissingen kunnen nemen.”

AI bestaat uit systemen?

“Ja, waarbij er vooral een groot verschil is tussen Narrow AI en General AI. De narrow-systemen kunnen één ding heel goed, bijvoorbeeld schaken of het Go-spel. Dat systeem gaat niet ineens autorijden of een medische diagnose stellen om maar wat te noemen. De general-systemen kunnen in principe alles dat de mens cognitief kan. Ik zeg expres in principe, want General AI bestaat nog niet. Het is simpelweg nog niet ontwikkeld. Ik geloof ook niet dat er robots komen die menselijk gedrag gaan vertonen. Wij beschikken over gezond verstand, bewustzijn en fantasie. AI niet. Overigens zijn de geleerden het hier absoluut niet over eens. Sommigen denken dat een machine bewustzijn kan krijgen, maar ik zit aan de kant die zegt dat het niet kan.”

Hoe hard gaan de ontwikkelingen?

“Op Narrow AI gaat het heel hard. Voorbeeld is gezichtsherkenning. Met name de automatische decisionmaking is hot. En, eerlijk is eerlijk, soms kan het heel handig zijn om met AI tot een beslissing te komen. Denk aan het vervangen van een meter in de stad. Heel nuttig. Maar AI kan ook heel beslissend zijn voor een mens, bijvoorbeeld als ik geen verzekering krijg of een bepaalde behandeling misloop. Als je daarbij optelt dat het onduidelijk is hoe zo’n systeem tot een beslissing komt, wordt het best tricky. Kijkt die verzekeraar op Facebook? Zien ze dat je nooit naar de sportschool gaat, maar wel wekelijks naar de slijter? Het is gewoonweg niet duidelijk op basis van welke gegevens de verzekeraar iemand afwijst.”

Hoe kan dat dan?

“De AI van nu is doelgericht. Dat betekent dat mensen er een doel aan geven. Stel dat ik zoveel mogelijk mensen wil selecteren, met een zo laag mogelijk ziekterisico en zoveel mogelijk zekerheid dat de premie wordt betaald. Als ik het systeem die opdracht geef, zoekt het ook precies naar die data en filtert dus eigenlijk alles wat onduidelijk is eruit.”

Ik geloof niet dat er robots komen die menselijk gedrag gaan vertonen.

Krijg je dan wel ‘eerlijke’ conclusies?

“Dat weet je niet, want er komen zoveel interne beslismomenten dat niet meer is na te gaan hoe de beslissing tot stand is gekomen. We nemen dus beslissingen die we zelf niet kunnen verklaren. Neem bijvoorbeeld een gemeente die naar potentiële fraudeurs met uitkeringen zoekt. Ik rol uit het systeem, de gemeente vertelt mij dat en ik vraag: ‘hoe komt u daar nou bij?’ ‘Dat weet ik niet’, antwoordt de gemeente, ‘dat zegt het systeem.’ En juist daar zit mijn grote bezwaar. De gemeente is verplicht volgens de wet om mij tekst en uitleg te geven, maar kan dat niet. Willen we dat soort systemen inzetten? Is dat ethisch verantwoord? En is het juridisch wel toegestaan?”

Zit het probleem vooral in het predictieve aspect?

 “Ja, ik geef vaak het voorbeeld van een systeem in de VS op basis waarvan werd bepaald of iemand op borgtocht vrij mocht komen. Dat systeem bleek vooringenomen te zijn tegen donkere mensen. Niemand snapte hoe dat kon, maar het werd wel gebruikt door rechters. Hoe kan het dat rechters volledig op zo’n systeem vertrouwen? Rechtspreken is toch meer dan het doen van een voorspelling. De systemen worden neergezet alsof ze een beslissing voor jou kunnen nemen, maar dat kan slechts voor een deel.”

Hoe groot is dat deel?

“Dat weet ik niet. Anders dan een systeem kan een mens echt waarnemen en bijvoorbeeld kleuren en geuren herkennen. AI en de data zijn ondersteunend aan de taken/functie van de mens. Ik geloof overigens wel dat AI mensen beter kan maken. Het moeilijkste spel ter wereld, Go, werd gewonnen door de computer. Dan denk je: einde Go, maar dat is niet gebeurd. Sterker nog, de professionele Go-spelers zijn juist anders naar het spel gaan kijken en hebben analyses losgelaten op de zetten van de computer. Uiteindelijk heeft dit de spelers beter gemaakt.”

Welk land is het verst in de ontwikkeling van AI?

“De VS zijn ver, op consumentengebied, maar Israël loopt ook behoorlijk voorop. In Europa zijn we heel goed in de embedded (robots) en business to business applicaties, de minder sexy AI zeg maar. En China is bezig met een inhaalslag. Zij willen graag de grote AI-leider worden en investeren veel, onder meer in opleiding.”

"China is bezig met een inhaalslag"

"China is bezig met een inhaalslag"

Moeten wij de Chinezen vrezen? Of de Amerikanen?

“Nee, want wij lopen voorop als het gaat om een verantwoorde AI. De discussie is nog vers, maar zodra Europa gaat standaardiseren, hebben Amerika en China pech. Zij zullen dan toch echt aan onze regels moeten voldoen als ze hier de markt op willen.”

Zetten we onszelf dan niet buitenspel?

“Nee waarom? Misschien halen we dan alleen de goede bedrijven naar binnen die wel aan onze eisen (willen) voldoen. We zien het nu al met de privacywetgeving gebeuren dat we als een soort positieve olievlek de wereld overgaan. Ook in de VS neemt het bewustzijn toe en wordt gesproken over (meer) privacy. Er zijn al staten in de VS, waaronder San Francisco, waar gezichtsherkenning verboden is. Dat soort discussies gaan we meer krijgen. Auto’s die kentekens scannen, scannen vaak veel meer dan alleen de auto. Wat als we daar gezichtsherkenning in bouwen en ik loop daar per ongeluk net langs? Word ik dan meteen vergeleken in een database? Moeten we dat allemaal willen?”

Geen idee. Wat wilt u? Bent u bijvoorbeeld bereid om data in te leveren?

“Ja, maar dan wel bewust. Ik heb geen stappenteller, maar zit wel op Twitter en ik kijk naar Netflix. Ik deel dus het nodige, maar ben wel alert. Als ik voor een nieuwe verzekering een formulier moet invullen, snap ik dat en doe ik dat ook braaf. Maar als ze willen weten of mijn hartslag stabiel is, hoeveel stappen ik zet en hoe hoog/laag mijn bloeddruk is, pas ik. Voor je het weet zit je in een black box: er is iets met u, maar we weten niet wat.”

Waar zit uw grootste bezwaar?

“Die data zijn van mij. Als een verzekeraar iets met incentives wil doen, moet ik wel keuzevrijheid houden. Als ze mij korting geven op een sportpas of contributie, kan ik wel of niet gaan. Dat bepaal ik zelf. Een stappenteller vind ik de wereld op zijn kop. Er gelden dan ineens allerlei voorwaarden dat de data van iemand anders zijn. En je wilt weliswaar geen toestemming geven, maar als je het niet doet, kun je ook die app niet gebruiken. Ik zou het pas stoer vinden als je de teller wel krijgt, maar zelf beslist of je de data deelt of niet, zonder consequenties.”

Wat moeten verzekeraars met AI?

“Ik zit niet in de branche, maar kan me voorstellen dat ze in beginsel iedereen willen verzekeren. Dat solidariteitsprincipe moeten ze ook bij AI voorop houden. Als ze alles van me kunnen weten - hoe vaak ik bij een sportschool kom, hoeveel stappen ik zet, hoe hoog mijn hartslag is, hoe stabiel mijn bloeddruk is - voldoet een verzekeraar dan nog wel aan het solidariteitsbeginsel? Als verzekeraar moet je bij je kernwaarden blijven en put your money where your mouth is. Volgens mij doen ze dat trouwens ook. Ik heb nog geen aanbieding gekregen voor een stappenteller in ruil voor korting.”

Waarom heeft u de Alliantie voor AI opgericht?

“Om dit soort discussies aan de gang te houden. In Europa is een strategie gekomen die is gericht op de economische ontwikkelingen, maar ook op de ethische, juridische en sociaal-maatschappelijke impact van AI. Liefst wil ik de complete maatschappij erbij betrekken. Het is geen verhaal voor technici, of alleen de overheid. AI gaat ons allemaal aan. Wat betekent AI voor de vakbeweging? En wat gebeurt er met (de inhoud van) onze banen? De bewustwording wat AI wel en niet kan, is zo belangrijk. Bovendien moeten de mensen die ermee aan de gang moeten het ook snappen. Het is mooi dat er ethische richtlijnen zijn, maar snappen de gemeenten en verzekeraars het ook. Weet zo’n gemeente wat ie moet doen? Snapt een verzekeraar wat het betekent voor zijn organisatie? De vertaalslag wat verantwoord AI is en betekent, staat in de wet en in de ethische richtlijnen, maar in de praktijk moeten we ’m nog maken.”

 (Fotografie: Ivar Pel)

Liefst wil ik de complete maatschappij bij AI betrekken.


Was dit nuttig?