Skip to Content

EU legt gebruik kunstmatige intelligentie (AI) aan banden

Op deze pagina is ook content beschikbaar exclusief voor leden Log in voor toegang of vraag account aan.

De Europese Commissie (EC) gaat strenge eisen stellen aan het toepassen van kunstmatige intelligentie (AI). Dit blijkt uit een voorstel dat de commissie op 21 april publiceerde. Een voorstel voor de aansprakelijkheidsaspecten van AI-toepassingen laat nog even op zich wachten.

Net als bij de AVG voor privacybescherming, zet Europa in op het voorkomen van misbruik van AI-toepassingen waar consumenten en bedrijven de dupe van kunnen worden. De EC zet hiermee naar eigen zeggen de toon voor de rest van de wereld.

Regels naar risico

Eurocommissaris Margrethe Vestager kwam vorige week met voorstel voor nieuwe regels en een classificatiesysteem van AI-toepassingen in drie risicocategorieën. Toepassingen met een onaanvaardbaar risico mag je in Europa niet gebruiken. Denk aan gezichtsherkenning in publieke ruimtes of social crediting. Dit laatste is een techniek waarbij burgers, die gewenst gedrag laten zien, beloond worden met voordelen wat kan leiden tot psychologische of fysieke schade.

Van hoog naar laag risico

De tweede categorie ziet op toepassingen met een hoog risico: voor deze toepassingen gelden extra eisen vanuit de wetgever. Het gaat hier bijvoorbeeld om systemen die gebruik maken van biometrische identificatie, om toegang te krijgen tot publieke diensten of het evalueren van kredietwaardigheid. Maar het gaat ook om producten die in bestaande wetgeving voor productveiligheid een veiligheidscomponent bevatten zoals machines, voertuigen, speelgoed, liften en medische apparatuur. Bij de derde categorie gaat het om toepassingen met een laag risico. Voor deze toepassingen verandert er niet veel en gelden vrijwillige gedragscodes en transparantievereisten. Denk hierbij aan chatbots bij klantenservices.

CE-keurmerk

Alle toepassingen moeten een conformiteitstoets doorlopen en er komt een CE-keurmerk. Voor toepassingen in de hoog risico categorie dient in veel gevallen een bevoegde instantie deze toets uitvoeren. In andere gevallen kan ook een zelftoets plaatsvinden. Bij apparatuur die toch al extern getoetst wordt om in aanmerking te komen voor een CE-keurmerk - denk aan medische apparatuur - moet het toepassen van kunstmatige intelligentie ook meegenomen worden in de test. In het voorstel waarschuwt de EC dat bedrijven die de regels niet naleven, hoge boetes kunnen krijgen van maximaal 6 procent van hun jaaromzet.

Planning

Het voorstel van de commissie zal nu worden beoordeeld en eventueel aangepast door het Europees Parlement en de lidstaten in de Europese Raad. Daarna zullen zij gezamenlijk in aanwezigheid van de EC tot een definitief wetstekst komen.

Ethisch kader en aansprakelijkheid

Het toepassen van kunstmatige intelligentie door verzekeraars staat ook hoog op de agenda bij het Verbond van Verzekeraars. In juni vorig jaar heeft het Verbond als eerste sector in Nederland een ethisch kader voor AI-toepassingen voor de verzekeringssector geïntroduceerd. Dit kader sluit goed aan op de benadering en het nieuwe voorstel van de EC.

Daarnaast gaat het Verbond na wat de mogelijke impact van AI-toepassingen is op productaansprakelijkheid. De EC zou oorspronkelijk vorige week ook een voorstel publiceren op het gebied van aansprakelijkheid en AI. De commissie heeft laten weten dit voorstel pas in het najaar van 2021 of begin 2022 te verwachten.

Shutterstock 2320781927

De AI-act voor verzekeraars 29 mei 2024

  • 29-5-2024
  • Webinar
  • Toepassing wet- en regelgeving
Shutterstock 1888881763

Schademiddag 2024

  • 5-6-2024
  • Event
  • Vakkennis

Was dit nuttig?