Het landschap van de AI-wetgeving
Kunstmatige intelligentie (AI) is in hoog tempo hele bedrijfstakken en samenlevingen aan het transformeren. Dit brengt ongekende vooruitgang, maar ook uitdagingen met zich mee. Naarmate AI-systemen meer en meer worden geïntegreerd in de manier waarop we zakendoen en ons leven leiden, groeit ook de behoefte aan robuuste wetgeving voor de ontwikkeling en toepassing van AI.
De meeste wet- en regelgeving probeert een evenwicht te vinden tussen de behoefte aan innovatie enerzijds en de bescherming van grondrechten en de openbare veiligheid anderzijds. In dit artikel verkennen we de stand van zaken rond de wereldwijde AI-wetgeving, de gevolgen hiervan en de weg die voor ons ligt.
De opkomst van AI-wetgeving
De Europese Unie heeft onlangs de Europese AI Act geïntroduceerd. Dit brede raamwerk moet zorgen dat AI-systemen veilig en transparant zijn en de grondrechten respecteren. Landen zoals de Verenigde Staten en China, die vooroplopen bij de ontwikkeling van AI-technologie, hebben al eerder wettelijke kaders opgesteld voor het omgaan met de unieke uitdagingen rond AI. Er bestaat hoe dan ook behoefte aan regulering van het AI-landschap om innovatie te bevorderen en tegelijkertijd vertrouwen te scheppen.
Met vertrouwen op weg naar de toekomst
De invoering van AI-wetgeving brengt verschillende uitdagingen met zich mee. Het ontwikkelingstempo van AI ligt vaak hoger dan wat de wettelijke kaders kunnen bijbenen. Bovendien moet de balans tussen innovatie en regelgeving zorgvuldig worden bewaakt om te verhinderen dat de technologische vooruitgang wordt belemmerd. Maar AI-wetgeving biedt ook grote kansen. Door duidelijke richtlijnen en normen vast te stellen, kan deze wetgeving innovatie bevorderen, het vertrouwen van het publiek vergroten en waarborgen dat AI-systemen op verantwoorde wijze worden ontwikkeld en toegepast. Bovendien kunnen we, door prioriteit te geven aan veiligheid, transparantie en ethische aspecten, het volledige potentieel van AI benutten en toch de belangen van individuen en de maatschappij beschermen.
Aangevuld door internationale normen
De inspanningen van overheden worden aangevuld door internationale normen zoals ISO/IEC 42001. Deze certificeerbare norm specificeert vereisten voor de implementatie van een AI-managementsysteem. Hoewel het geen wetgeving op zich is, wordt verwacht dat ISO/IEC 42001 een belangrijke rol zal spelen bij het bevorderen van betrouwbare AI door best practices om governance vast te stellen. De norm is ontwikkeld om veilige, betrouwbare en ethische ontwikkeling, implementatie en toepassing van AI te waarborgen en wordt in verschillende wetten en voorschriften genoemd als een waardevol hulpmiddel om te zorgen dat er processen voor hoogwaardige governance worden geïmplementeerd.
Belangrijke elementen in AI-wetgeving
AI-wetgeving omvat doorgaans deze belangrijke elementen:
- Veiligheid en betrouwbaarheid: Het is van groot belang dat AI-systemen veilig en betrouwbaar werken. Wetgeving specificeert vaak vereisten voor risicomanagement, tests en validatie om schade voor personen of voor de maatschappij te voorkomen.
- Transparantie en verantwoording: In de besluitvormingsprocessen rond AI is transparantie cruciaal om vertrouwen te kunnen opbouwen. Veel wet- en regelgeving schrijft voor dat AI-ontwikkelaars duidelijke informatie verstrekken over de werking van hun systemen en dat er mechanismen aanwezig zijn om audits te kunnen uitvoeren.
- Ethische aspecten: Ethische uitgangspunten zoals rechtvaardigheid, non-discriminatie en respect voor privacy maken integraal onderdeel uit van AI-wetgeving. Deze uitgangspunten beïnvloeden de ontwikkeling en implementatie van AI-systemen om te waarborgen dat ze aansluiten bij maatschappelijke waarden.
- Naleving en handhaving: Effectieve handhaving is essentieel om naleving van de AI-wetgeving te waarborgen. Regelgevende instanties en toezichthouders zijn belast met het monitoren van AI-systemen, het uitvoeren van audits en het opleggen van sancties na overtredingen.
Europa: de Europese AI Act
De Europese Unie heeft een belangrijke stap gezet op weg naar regulering van AI. Deze AI Act moet zorgen dat de systemen veilig en transparant zijn en de grondrechten respecteren, maar moet tegelijkertijd ook de innovatie bevorderen. Deze verordening is gepubliceerd op 12 juli 2024 en is in werking getreden op 1 augustus 2024.. De afzonderlijke bepalingen in de verordening zullen geleidelijk worden ingevoerd. Bepalingen over verboden praktijken gelden vanaf 2 februari 2025 en de regels voor AI-systemen met een hoog risico gaan vanaf 2 augustus 2026 gelden.
De AI Act categoriseert AI-systemen op basis van het risiconiveau:
- Onaanvaardbaar risico: systemen in deze categorie, die bijvoorbeeld sociale scores toekennen aan mensen, menselijk gedrag manipuleren of persoonlijke kwetsbaarheden uitbuiten, zijn strikt verboden.
- Hoog risico: systemen met een hoog risico, bijvoorbeeld voor personeelswerving, onderwijs, medische apparatuur of toepassingen op het gebied van kritieke infrastructuur, zijn toegestaan op voorwaarde dat ze aan bepaalde vereisten voldoen en dat dit wordt geverifieerd door middel van strenge conformiteitsbeoordelingen.
- Transparantierisico: systemen met een ‘transparantierisico’, zoals chatbots of deepfake-programma’s, zijn toegestaan op voorwaarde dat ze voldoen aan verplichtingen op het gebied van transparantie en informatieverstrekking.
- Minimaal of geen risico: deze systemen zijn toegestaan zonder beperkingen.
De Europese AI Act stelt ook eisen aan transparantie en verantwoording. AI-ontwikkelaars moeten duidelijke informatie verstrekken over de werking van hun systemen en ze moeten zorgen dat er audits kunnen worden uitgevoerd. Dit betekent onder andere dat er gedetailleerde documentatie en logboeken moeten worden bijgehouden om toezicht en naleving te ondersteunen. De Europese verordening is ook van toepassing op organisaties die AI-producten in de EU exploiteren of verkopen. Exporterende organisaties moeten zorgen dat hun AI-systemen aan de gespecificeerde normen voldoen en de vereiste beoordelingen ondergaan.
Impact op organisaties
Wereldwijd staat de intentie om innovatie en verantwoorde ontwikkeling en toepassingen van AI te bevorderen centraal. Dit moet gedaan worden om ervoor te zorgen dat deze technologie de samenleving ten goede komt, maar ook dat er maatregelen worden genomen tegen de mogelijke risico’s. AI-technologie blijft zich razendsnel ontwikkelen. De wetgever zal moeten proberen dit tempo bij te benen met nieuwe wet- en regelgeving, en organisaties zullen de nieuwe regels moeten bijhouden en naleven.
Om verzekerd te zijn van robuuste governance kunnen organisaties veel baat hebben bij het implementeren van een AI-managementsysteem (AIMS) dat voldoet aan ISO/IEC 42001, in combinatie met managementsystemen die gericht zijn op informatiebeveiliging (ISO/IEC 27001) en/of privacy (ISO/IEC 27701). Het AIMS biedt een gestructureerde aanpak voor risicomanagement, met inbegrip van naleving, en formuleert werkwijzen voor voortdurende verbetering. Een AI-managementsysteem kan ook worden gecertificeerd door een onafhankelijke derde partij zoals DNV. Dit is waardevol om tot veilige, betrouwbare en ethische AI-systemen te komen, de naleving van wet- en regelgeving te ondersteunen en de vertrouwenskloof te dichten.