AI Act imple­men­ta­tie dead­lines nade­ren

Tijd om verboden AI-systemen uit te faseren en AI kennis te versterken

Blog

Published 14 januari 2025 Reading time min Auteur Emelie Wesselink Digital, Cyber & Privacy | Financial services

Arti­fi­ci­al Intel­li­gen­ce (AI) wordt door orga­ni­sa­ties steeds vaker inge­zet om pro­duc­ti­vi­teit te ver­ho­gen. Slim gebruik van AI biedt name­lijk kan­sen voor effi­ci­ën­ter en suc­ces­vol­ler wer­ken. Toch wordt ook steeds dui­de­lij­ker dat er risico’s kle­ven aan het gebruik van AI, zoals op bias of het onbe­doeld open­baar­ma­ken van infor­ma­tie die met slim­me prompts wordt ach­ter­haald. Om der­ge­lij­ke risico’s te mini­ma­li­se­ren heeft de Euro­pe­se Com­mis­sie de  AI Act geïn­tro­du­ceerd.

 

Doel AI Act

De AI Act heeft als doel inno­va­tie te sti­mu­le­ren en tege­lij­ker­tijd vei­lig­heid voor mens en fun­da­men­te­le rech­ten te waar­bor­gen. Dit wordt gedaan door dui­de­lij­ke regels te stel­len voor het ont­werp, de ont­wik­ke­ling en het gebruik van AI-sys­te­men. De AI Act is op 2 augus­tus 2024 in wer­king getre­den. De AI Act kent een gefa­seer­de inwer­king­tre­ding. De eer­ste belang­rij­ke dead­line is op 2 febru­a­ri 2025. Op die datum moe­ten ver­bo­den AI-sys­te­men zijn uit­ge­fa­seerd. Het is daar­om van groot belang dat orga­ni­sa­ties begrij­pen wel­ke AI-sys­te­men zij gebrui­ken. Daar­naast moet er op 2 febru­a­ri 2025 aan­pak staan om AI-gelet­terd­heid te waar­bor­gen, wat kort­ge­zegd bete­kent dat mede­wer­kers vol­doen­de kennis heb­ben van de wer­king en de risico’s van AI-sys­te­men waar­mee zij wer­ken, zodat zij de uit­kom­sten van AI-sys­te­men vol­doen­de begrij­pen. Het over­tre­den van de AI Act kan lei­den tot boe­tes van maxi­maal 35 mil­joen euro of 7% van de wereld­wij­de jaar­om­zet.

In dit blog wor­den enke­le belang­rij­ke aspec­ten van de AI Act bespro­ken. We staan stil bij de belang­rijk­ste acties voor 2 febru­a­ri 2025 en geven aan­be­ve­lin­gen om deze acties uit te voe­ren.

 

Risi­co­ge­ba­seer­de aan­pak

De AI Act kent een risi­co-geba­seer­de aan­pak en onder­scheidt AI-sys­te­men op basis van hun risi­co­clas­si­fi­ca­tie. Sys­te­men met een laag risi­co ken­nen wei­nig ver­plich­tin­gen. De orga­ni­sa­tie moet met name AI-gelet­terd­heid waar­bor­gen. Ook zijn er hoog risi­co AI-sys­te­men waar­voor veel stren­ge ver­plich­tin­gen gel­den. Daar­naast over­woog de wet­ge­ver dat er bepaal­de AI prak­tij­ken een der­ma­te hoog risi­co inhou­den, dat deze ver­bo­den zijn. Een voor­beeld van een der­ge­lij­ke prak­tijk is soci­al sco­ring. Der­ge­lij­ke sys­te­men kun­nen indi­vi­du­en rang­schik­ken op basis van hun gedrag, finan­ci­ë­le situ­a­tie of soci­a­le inter­ac­ties, wat uit­ein­de­lijk kan lei­den tot ver­re­gaan­de uit­slui­ting of dis­cri­mi­na­tie.

 

Dead­line 2 febru­a­ri 2025: ver­bo­den AI-sys­te­men en AI gelet­terd­heid

De eer­ste dead­line is op 2 febru­a­ri 2025. Voor die datum staan twee acties cen­traal: het uit­fa­se­ren van ver­bo­den AI-sys­te­men en het waar­bor­gen van AI-gelet­terd­heid. Hier­on­der lich­ten we bei­de acties toe.

  • Ver­bo­den AI-sys­te­men uit­fa­se­ren

Om te begrij­pen of er ver­bo­den AI-sys­te­men bin­nen de orga­ni­sa­tie wor­den gebruikt, is het van belang dat orga­ni­sa­ties een over­zicht heb­ben van alle AI-sys­te­men die zij ont­wik­ke­len of gebrui­ken. Na het opstel­len van dit over­zicht moet per AI sys­teem het risi­co­ni­veau wor­den bepaald. Daar­uit blijkt wel­ke sys­te­men ver­bo­den zijn. Indien dat laat­ste het geval is, dient het sys­teem te wor­den uit­ge­fa­seerd. Dit kan een uit­da­ging zijn: de ver­bods­be­pa­lin­gen laten ruim­te voor inter­pre­ta­tie. Gede­tail­leer­de richt­lij­nen van bij­voor­beeld toe­zicht­hou­den­de auto­ri­tei­ten zijn ech­ter nog niet beschik­baar. Een kri­ti­sche blik op de geim­ple­men­teer­de AI-sys­te­men is daar­om van belang.

  • AI-gelet­terd­heid

Mede­wer­kers die­nen te begrij­pen hoe AI werkt, zodat vol­doen­de begrip wordt gecreeerd van de risico’s die gepaard kun­nen gaan met het gebruik van AI. Met ande­re woor­den: orga­ni­sa­ties die­nen voor vol­doen­de AI-gelet­terd­heid te zor­gen bij de mede­wer­kers. Orga­ni­sa­ties kun­nen hier­voor een trai­nings­pro­gram­ma opzet­ten. Het trai­nings­pro­gram­ma bevat bij­voor­beeld belang­rij­ke docu­men­ta­tie over de wer­king van AI, alge­me­ne AI trai­nin­gen en spe­ci­fie­ke AI trai­nin­gen. Alge­me­ne trai­nin­gen behan­de­len basis­in­for­ma­tie over de wer­king van AI en de moge­lij­ke risico’s, zoals bias of fou­tie­ve uit­kom­sten. Voor mede­wer­kers die met spe­ci­fie­ke AI-sys­te­men wer­ken, zoals een cre­dit­sco­re­sys­teem of een CV-selec­tie­sys­teem, zijn gerich­te trai­nin­gen essen­ti­eel. Mede­wer­kers leren aan de hand van deze trai­nin­gen over hoe zij een bepaald AI sys­teem cor­rect kun­nen toe­pas­sen, of hoe de out­put op de juis­te manier kan wor­den gein­ter­pre­teerd.

 

Onder­neem actie: AI-code of con­duct

Hier­bo­ven is beschre­ven dat orga­ni­sa­ties ver­bo­den sys­te­men moe­ten uit­fa­se­ren, waar­voor een over­zicht van AI-sys­te­men moet wor­den opge­steld. Daar­naast moet wor­den gezorgd voor AI-gelet­terd­heid. Om deze stap­pen te onder­steu­nen is het nut­tig om een AI Code of Con­duct op te stel­len. De AI Code of Con­duct bevat de basis­in­for­ma­tie over de wer­king van AI en legt het (toe­ge­sta­ne) gebruik van AI vast, inclu­sief aspec­ten van AI waar­op mede­wer­kers moe­ten let­ten. Zo ver­groot de orga­ni­sa­tie AI-gelet­terd­heid en stuurt het op het gewens­te gedrag van mede­wer­kers, waar­mee wordt voor­ko­men dat mede­wer­kers ver­bo­den AI-sys­te­men gebrui­ken.

Heeft u vra­gen over de aan­ko­men­de dead­line van 2 febru­a­ri of wilt u advies bij het opstel­len van een AI Code of Con­duct? HVG Law helpt u graag. Neem vrij­blij­vend con­tact met ons op om te bespre­ken hoe wij uw onder­ne­ming kun­nen onder­steu­nen.