AI ver­o­vert snel de werk­vloer – is uw orga­ni­sa­tie er al klaar voor?

Blog

Published 9 oktober 2024 Reading time min Auteur Robin Ver­hoe­ven Digital, Cyber & Privacy

Arti­fi­ci­ë­le Intel­li­gen­tie (AI) is een hot topic. Ook op de werk­vloer wordt steeds vaker gebruik gemaakt van AI. Denk aan gene­ra­tie­ve AI-sys­te­men, zoals Chat­G­PT, die werk­ne­mers hel­pen bij het uit­voe­ren van dage­lijk­se taken of chat­bots die de klan­ten­ser­vi­ce onder­steu­nen. De inzet van AI op de werk­vloer biedt voor orga­ni­sa­ties kan­sen. De voor­de­len zijn dui­de­lijk: AI kan bij­dra­gen aan meer (kosten)efficiënt wer­ken en een ver­hoog­de pro­duc­ti­vi­teit.

Toch zijn er ook risico’s ver­bon­den aan het gebruik van AI. Geva­ren waar werk­ge­vers en werk­ne­mers zich niet altijd vol­doen­de bewust van zijn. Zo waarschuwde de Auto­ri­teit Per­soons­ge­ge­vens dat het invoe­ren van per­soons­ge­ge­vens in AI-sys­te­men kan lei­den tot data­lek­ken of het lek­ken van bedrijfs­ge­hei­men. Een veel­ge­hoor­de zorg is daar­naast het gevaar voor dis­cri­mi­na­tie, bij­voor­beeld wan­neer AI-sys­te­men wor­den gebruikt in het wer­vings­pro­ces voor het scree­nen of fil­te­ren van sol­li­ci­ta­ties, of voor de eva­lu­a­tie van kan­di­da­ten tij­dens inter­views of tests.

Orga­ni­sa­ties doen er goed aan om pro­ac­tief actie te onder­ne­men, door het opstel­len van beleid over het gebruik van AI bin­nen de orga­ni­sa­tie. Niet alleen om de (eer­der­ge­noem­de) risico’s te beper­ken, maar ook omdat werk­ge­vers ver­plich­tin­gen heb­ben op grond van nieu­we wet­ge­ving op het gebied van AI in de Euro­pe­se Unie. In deze blog vind je prak­ti­sche hand­vat­ten om ervoor te zor­gen dat AI ver­ant­woord en in lijn met de gel­den­de regel­ge­ving wordt inge­zet.

 

AI Act

Bin­nen de Euro­pe­se Unie is op 1 augus­tus 2024 een ver­or­de­ning aan­ge­no­men die ziet op het vei­lig ont­wik­ke­len en gebrui­ken van AI (AI Act). De AI Act geldt voor elke orga­ni­sa­tie die AI ont­wik­kelt, inkoopt of gebruikt – onge­acht de sec­tor waar­in deze actief is.

De AI Act heeft een zoge­naam­de risi­co-geba­seer­de aan­pak. Dit bete­kent dat de ver­plich­tin­gen in streng­heid toe­ne­men voor AI-sys­te­men met een hoger risi­co voor gezond­heid, vei­lig­heid en fun­da­men­te­le rech­ten. Zo intro­du­ceert de AI Act uit­ge­brei­de ver­plich­tin­gen voor werk­ge­vers als gebrui­kers van zoge­noem­de ‘hoog risi­co AI-sys­te­men’.

Dit zijn bij­voor­beeld AI-sys­te­men die wor­den gebruikt voor wer­ving en selec­tie, of voor de beoor­de­ling van en het toe­zicht hou­den op werk­ne­mers. Zo is bij het gebruik van hoog risi­co AI-sys­te­men men­se­lijk toe­zicht ver­plicht en mag het AI-sys­teem slechts wor­den gebruikt in over­een­stem­ming met de gebruiks­aan­wij­zin­gen daar­van.

Ook ver­plicht de AI Act alle werk­ge­vers die AI-sys­te­men inzet­ten om werk­ne­mers die hier­van gebruik­ma­ken te trai­nen in het ver­ant­woord gebruik van deze AI-sys­te­men. Niet-nale­ving van de ver­plich­tin­gen uit de AI Act kan voor werk­ge­vers lei­den tot hoge boe­tes.

 

Inven­ta­ri­sa­tie AI-sys­te­men

De eer­ste stap naar ver­ant­woord gebruik van AI is inzicht krij­gen in wel­ke AI-sys­te­men door werk­ne­mers wor­den gebruikt of aan wel­ke AI-sys­te­men zij behoef­te heb­ben. Het is ver­stan­dig om een over­zicht te maken van alle AI-sys­te­men die bin­nen de orga­ni­sa­tie in gebruik zijn. Dit over­zicht vormt ook met­een de basis voor het toe­pas­sen van de risi­co­clas­si­fi­ca­tie uit de AI Act, zoals hier­bo­ven beschre­ven.

 

Opstel­len beleid

Werk­ge­vers heb­ben een wet­te­lijk instruc­tie­recht. Op grond daar­van kun­nen zij het gebruik van AI ver­bie­den, of kun­nen zij juist instruc­ties geven over de manier waar­op AI wél mag wor­den inge­zet. Belang­rijk is dat de afspra­ken dui­de­lijk wor­den vast­ge­legd. Het AI-beleid kan bij­voor­beeld wor­den opge­no­men in het per­so­neels­hand­boek of in een sepa­raat beleid, zoals in een AI Code of Con­duct.

In dit beleid kan wor­den vast­ge­legd wel­ke AI-sys­te­men bin­nen de orga­ni­sa­tie mogen wor­den gebruikt (en wel­ke niet) en wat het toe­ge­sta­ne gebruik daar­van is. Daar­bij kan gedacht wor­den aan de vol­gen­de aspec­ten:

  • wel­ke werk­ne­mers toe­gang krij­gen tot de AI-sys­te­men;
  • regels over het gebruik en bescher­ming van gege­vens, zoals wel­ke gege­vens in een AI-sys­te­men mogen wor­den inge­voerd (ook in het kader van de AVG);
  • regels over trans­pa­ran­tie, zoals wan­neer klan­ten moe­ten wor­den geïn­for­meerd over het gebruik van AI;
  • met wel­ke accounts werk­ne­mers mogen inlog­gen in de AI-sys­te­men en hoe toe­gang tot AI-sys­te­men is bevei­ligd;
  • op wel­ke wij­ze de door AI gege­ne­reer­de infor­ma­tie mag wor­den gebruikt; moet deze infor­ma­tie bij­voor­beeld wor­den gecon­tro­leerd voor gebruik daar­van?;
  • regels over trai­ning van AI-sys­te­men en werk­ne­mers; en
  • duur­zaam gebruik van AI-sys­te­men en bewust­wor­ding daar­van.

 

Sanc­ties

Om het beleid te kun­nen hand­ha­ven, is het ver­stan­dig om sanc­ties te ver­bin­den aan over­tre­ding daar­van. De sanc­ties voor werk­ne­mers kun­nen vari­ë­ren, ook afhan­ke­lijk van de ernst van de over­tre­ding en de gevol­gen, van een (offi­ci­ë­le) waar­schu­wing tot schor­sing of ont­slag. Uiter­aard moet het beleid wel ken­baar zijn voor de werk­ne­mers wil­len zij op de niet-nale­ving kun­nen wor­den aan­ge­spro­ken.

 

Rol van de OR

Afhan­ke­lijk van de inhoud van het beleid kan het zijn dat de OR bij de imple­men­ta­tie moet wor­den betrok­ken. Op grond van de Wet op de Onder­ne­mings­ra­den heeft de OR name­lijk een advies- en instem­mings­recht, die ook van invloed kun­nen zijn op belang­rij­ke beslis­sin­gen rond­om AI-gebruik bin­nen de orga­ni­sa­tie. Zo heeft de OR een advies­recht ten aan­zien van de invoe­ring of wij­zi­ging van een belang­rij­ke tech­no­lo­gi­sche voor­zie­ning.

Het instem­mings­recht van de OR kan van toe­pas­sing zijn wan­neer AI-sys­te­men bij­voor­beeld rege­lin­gen bevat­ten of intro­du­ce­ren over werk­tij­den, ver­wer­king van per­soons­ge­ge­vens of beoor­de­lings­sys­te­men. Ook op grond van de AI Act moe­ten werk­ge­vers de werk­ne­mers­ver­te­gen­woor­di­ging (zoals een OR) con­sul­te­ren vóór­dat een hoog risi­co AI-sys­teem in gebruik wordt geno­men.

 

Kort­om, werk aan de winkel!

AI heeft poten­tie om orga­ni­sa­ties effi­ci­ën­ter en inno­va­tie­ver te maken, maar het gebruik van AI brengt ook uit­da­gin­gen met zich mee. Zon­der dui­de­lijk beleid voor ver­ant­woor­de­lijk gebruik kun­nen de risico’s van AI gro­ter zijn dan de voor­de­len. En dat is natuur­lijk zon­de! Dui­de­lijk beleid zorgt voor hel­de­re kaders, beschermt zowel de orga­ni­sa­tie als de werk­ne­mers, en helpt om AI op een vei­li­ge en ver­ant­woor­de manier te imple­men­te­ren. Daar­mee kan AI een waar­de­vol­le aan­winst wor­den.

Heeft u vra­gen over uw hui­di­ge AI-beleid of over­weegt u om AI-beleid, zoals een AI Code of Con­duct, bin­nen uw orga­ni­sa­tie te imple­men­te­ren? Wij staan uiter­aard klaar om met u mee te den­ken over de moge­lijk­he­den. Neem gerust con­tact met ons op!

Deze blog is ook ver­sche­nen op CHRO en HR Praktijk.