Blog
Artificial Intelligence (AI) wordt door organisaties steeds vaker ingezet om productiviteit te verhogen. Slim gebruik van AI biedt namelijk kansen voor efficiënter en succesvoller werken. Toch wordt ook steeds duidelijker dat er risico’s kleven aan het gebruik van AI, zoals op bias of het onbedoeld openbaarmaken van informatie die met slimme prompts wordt achterhaald. Om dergelijke risico’s te minimaliseren heeft de Europese Commissie de AI Act geïntroduceerd.
Doel AI Act
De AI Act heeft als doel innovatie te stimuleren en tegelijkertijd veiligheid voor mens en fundamentele rechten te waarborgen. Dit wordt gedaan door duidelijke regels te stellen voor het ontwerp, de ontwikkeling en het gebruik van AI-systemen. De AI Act is op 2 augustus 2024 in werking getreden. De AI Act kent een gefaseerde inwerkingtreding. De eerste belangrijke deadline is op 2 februari 2025. Op die datum moeten verboden AI-systemen zijn uitgefaseerd. Het is daarom van groot belang dat organisaties begrijpen welke AI-systemen zij gebruiken. Daarnaast moet er op 2 februari 2025 aanpak staan om AI-geletterdheid te waarborgen, wat kortgezegd betekent dat medewerkers voldoende kennis hebben van de werking en de risico’s van AI-systemen waarmee zij werken, zodat zij de uitkomsten van AI-systemen voldoende begrijpen. Het overtreden van de AI Act kan leiden tot boetes van maximaal 35 miljoen euro of 7% van de wereldwijde jaaromzet.
In dit blog worden enkele belangrijke aspecten van de AI Act besproken. We staan stil bij de belangrijkste acties voor 2 februari 2025 en geven aanbevelingen om deze acties uit te voeren.
Risicogebaseerde aanpak
De AI Act kent een risico-gebaseerde aanpak en onderscheidt AI-systemen op basis van hun risicoclassificatie. Systemen met een laag risico kennen weinig verplichtingen. De organisatie moet met name AI-geletterdheid waarborgen. Ook zijn er hoog risico AI-systemen waarvoor veel strenge verplichtingen gelden. Daarnaast overwoog de wetgever dat er bepaalde AI praktijken een dermate hoog risico inhouden, dat deze verboden zijn. Een voorbeeld van een dergelijke praktijk is social scoring. Dergelijke systemen kunnen individuen rangschikken op basis van hun gedrag, financiële situatie of sociale interacties, wat uiteindelijk kan leiden tot verregaande uitsluiting of discriminatie.
Deadline 2 februari 2025: verboden AI-systemen en AI geletterdheid
De eerste deadline is op 2 februari 2025. Voor die datum staan twee acties centraal: het uitfaseren van verboden AI-systemen en het waarborgen van AI-geletterdheid. Hieronder lichten we beide acties toe.
- Verboden AI-systemen uitfaseren
Om te begrijpen of er verboden AI-systemen binnen de organisatie worden gebruikt, is het van belang dat organisaties een overzicht hebben van alle AI-systemen die zij ontwikkelen of gebruiken. Na het opstellen van dit overzicht moet per AI systeem het risiconiveau worden bepaald. Daaruit blijkt welke systemen verboden zijn. Indien dat laatste het geval is, dient het systeem te worden uitgefaseerd. Dit kan een uitdaging zijn: de verbodsbepalingen laten ruimte voor interpretatie. Gedetailleerde richtlijnen van bijvoorbeeld toezichthoudende autoriteiten zijn echter nog niet beschikbaar. Een kritische blik op de geimplementeerde AI-systemen is daarom van belang.
- AI-geletterdheid
Medewerkers dienen te begrijpen hoe AI werkt, zodat voldoende begrip wordt gecreeerd van de risico’s die gepaard kunnen gaan met het gebruik van AI. Met andere woorden: organisaties dienen voor voldoende AI-geletterdheid te zorgen bij de medewerkers. Organisaties kunnen hiervoor een trainingsprogramma opzetten. Het trainingsprogramma bevat bijvoorbeeld belangrijke documentatie over de werking van AI, algemene AI trainingen en specifieke AI trainingen. Algemene trainingen behandelen basisinformatie over de werking van AI en de mogelijke risico’s, zoals bias of foutieve uitkomsten. Voor medewerkers die met specifieke AI-systemen werken, zoals een creditscoresysteem of een CV-selectiesysteem, zijn gerichte trainingen essentieel. Medewerkers leren aan de hand van deze trainingen over hoe zij een bepaald AI systeem correct kunnen toepassen, of hoe de output op de juiste manier kan worden geinterpreteerd.
Onderneem actie: AI-code of conduct
Hierboven is beschreven dat organisaties verboden systemen moeten uitfaseren, waarvoor een overzicht van AI-systemen moet worden opgesteld. Daarnaast moet worden gezorgd voor AI-geletterdheid. Om deze stappen te ondersteunen is het nuttig om een AI Code of Conduct op te stellen. De AI Code of Conduct bevat de basisinformatie over de werking van AI en legt het (toegestane) gebruik van AI vast, inclusief aspecten van AI waarop medewerkers moeten letten. Zo vergroot de organisatie AI-geletterdheid en stuurt het op het gewenste gedrag van medewerkers, waarmee wordt voorkomen dat medewerkers verboden AI-systemen gebruiken.
Heeft u vragen over de aankomende deadline van 2 februari of wilt u advies bij het opstellen van een AI Code of Conduct? HVG Law helpt u graag. Neem vrijblijvend contact met ons op om te bespreken hoe wij uw onderneming kunnen ondersteunen.