Kunstmatige intelligentie (Artificial intelligence, AI) speelt bij veel bedrijven al op allerlei manieren een rol binnen de HR-afdeling. Uit een onderzoek van de ManpowerGroup uit 2023 blijkt dat 31% van de deelnemende werkgevers AI gebruikt bij rekrutering en onboarding.
Tegenwoordig kun je AI-tools gebruiken bij onder andere:
- het screenen van cv’s
- het beoordelen van kandidaten
- sourcing
- het schrijven van vacatureteksten
- het identificeren van mogelijkheden om een medewerker te promoveren
- het versturen van geautomatiseerde berichten naar sollicitanten.
“Je kunt het zo gek niet verzinnen of er wordt een AI-tool voor gemaakt”, zegt Trey Causey, Head of Responsible AI and Senior Director of Data Science bij Indeed.
De geavanceerdheid van deze tools is echter wisselend, evenals de aandacht van de ontwikkelaars voor risico’s. Organisaties moeten zich bewust zijn van het risicospectrum bij het gebruik van AI en strategieën ontwikkelen om dit op een verantwoorde manier te doen.
Met AI is het mogelijk om menselijke vooroordelen te verminderen, vooral in rekrutering. AI kan bijvoorbeeld meer gelijke kansen creëren voor medewerkers en functietaken stroomlijnen, zodat hr-professionals zich kunnen richten op de meer menselijke aspecten van hun job. Deze technologie kan ook inherente vooroordelen in stand houden en racistische robots creëren, en dus tijd en geld verspillen.
Hier vind je vier stappen die je kunt nemen om risico’s te identificeren en ervoor te zorgen dat je AI-gebruik eerlijk, ethisch en effectief is.
1. Evalueer de risico’s en de voordelen voor jouw organisatie
Vraag je eerst af of AI-tools passen bij je bedrijf wanneer het gaat om HR. AI-systemen kunnen processen opschalen, zoals het identificeren en beoordelen van veel meer kandidaten dan manueel mogelijk is.
Er is ook een keerzijde. “Je kunt ook vergissingen en fouten opschalen, aangezien geen enkel systeem perfect is”, aldus Jey Kumarasamy, een medewerker van Luminos Law, een op AI gericht advocatenkantoor. “Zelfs bij 90% nauwkeurigheid, wat hoog is, zal er bij het verwerken van duizenden sollicitaties een flink aantal sollicitaties onjuist worden beoordeeld.”
Het uitgangspunt voor het evalueren van HR-tools met AI-technologie moet zijn dat de tools niet perfect zijn. “Vooroordelen zijn onvermijdelijk, dus bedrijven moeten een manier vinden om dat probleem aan te pakken, of ze moeten accepteren dat ze risico’s lopen”, zegt Causey.
Terwijl sommige bedrijven het risico accepteren vanwege de hogere productiviteit, vinden andere dat de potentiële foutmarge hun waarden in gevaar brengt of dat de dingen te complex worden door de toenemende druk om aan allerlei regels te moeten voldoen.
Als je met AI wilt doorgaan, moet je goed nadenken over de tools die je kiest. AI waarmee je transcripties van sollicitatiegesprekken kunt maken, is bijvoorbeeld vaak een applicatie met een laag risico (hoewel het slechte resultaten kan opleveren wanneer je het gebruikt bij gesprekken met niet-moedertaalsprekers). AI waarmee je kandidaten beoordeelt op basis van hun prestaties in videogesprekken daarentegen “is waarschijnlijk het meest problematisch omdat er veel risico’s zijn en er veel kan misgaan”, aldus Kumarasamy.
Het uiteindelijke doel van AI moet zijn om menselijke processen te ondersteunen en te verbeteren, niet om ze te vervangen. Zorg dat je HR-team voldoende medewerkers heeft voordat je AI-tools gaat gebruiken, zodat mensen elke stap van een geautomatiseerd proces kunnen controleren. Laat kritieke HR-zaken over aan mensen, zoals definitieve aanwervingsbeslissingen, promoties en ondersteuning van medewerkers. Als AI de dagdagelijkse handelingen uitvoert, hebben HR-professionals gelukkig veel meer tijd en flexibiliteit voor die taken.
2. Screen externe leveranciers die tools met AI-technologie aanbieden
Wanneer je hebt besloten welke soort AI-tools het beste voldoen aan de behoeften van jouw organisatie, kun je potentiële verkopers benaderen en specifieke vragen stellen, bijvoorbeeld:
- Hoe controleren zij hun systeem? Wanneer is het voor het laatst getest en welke statistieken zijn gebruikt?
- Is de test intern uitgevoerd of door een externe groep?
- Hoe worden vooroordelen bestreden? Als ze claimen dat hun systeem zorgt voor zo min mogelijk vooroordelen, wat betekent dat dan en hoe meten ze dat?
- Bieden de leveranciers ook na de implementatie verschillende diensten aan, zoals opleidingen voor je medewerkers waardoor ze het systeem kunnen configureren en onderhouden?
- Zijn er teststatistieken beschikbaar die je als potentiële klant kunt bekijken?
- Voldoen zij aan de huidige en nieuwe regelgeving? “Ik sprak vorig jaar met een leverancier en vroeg of deze voldeed aan een specifieke regelgeving, en de leverancier bleek die niet te kennen", vertelt Causey. Dit was niet alleen een waarschuwing, maar “het was overduidelijk rechtstreeks van invloed op zijn product.”
- Werken ze mee aan door jou uitgevoerde AI-audits? “Wanneer je een AI-audit uitvoert, heb je mogelijk de hulp van een leverancier nodig. En meestal is dat niet het beste moment om erachter te komen dat je leverancier hier niet aan mee wil werken, of je geen documentatie of resultaten wil verstrekken”, aldus Kumarasamy.
3. Identificeer en monitor vooroordelen
AI-algoritmes zijn net zo onbevooroordeeld als de data die zijn gebruikt om ze te trainen. Werkgevers kunnen de manier waarop algoritmes worden ontwikkeld niet wijzigen, maar er zijn wel manieren om de tools vóór implementatie te testen.
Organisaties kunnen ook aan de hand van een proces dat ‘contrafeitelijke analyse’ heet, zien hoe een AI-model reageert op verschillende inputs. Je kunt bijvoorbeeld proberen de naam van de kandidaat of de school waar deze op heeft gezeten, te veranderen als AI cv’s voor kandidaten evalueert: krijgt de kandidaat hierdoor een andere classificatie van het algoritme?
“Dit gebeurt al sinds de jaren 50. Sociologen stuurden cv’s naar werkgevers en veranderden steeds één ding in hun cv om te zien hoe verschillend het aantal reacties was", vertelt Causey. “We kunnen dat met AI ook doen en veel bestaande sociaalwetenschappelijke kennis binnenhalen over hoe we vooroordelen in AI-modellen kunnen evalueren.”
Monitor AI-systemen na implementatie voortdurend om mogelijke discriminerende patronen te identificeren en te corrigeren zodra ze bovendrijven, en blijf op de hoogte van ontwikkelingen op het gebied van onderzoek over datawetenschap en AI. “Wanneer het mensen zijn die beslissingen nemen, is het moeilijk om te weten of ze bevooroordeeld zijn”, aldus Causey. “Je kunt niet in iemands hoofd kijken en achterhalen waarom iemand ‘ja’ zei tegen deze kandidaat maar ‘nee’ tegen een andere kandidaat. Bij een model kunnen we dat wel.”
Er is geen standaardset met tests om HR-tools op vooroordelen te controleren. Werkgevers moeten op zijn minst goed begrijpen hoe AI wordt gebruikt binnen de organisatie. Ze kunnen bijvoorbeeld een lijst met alle gebruikte AI-modellen bijhouden. Organisaties moeten vastleggen welke tools zijn geleverd door welke leverancier, en ook de use cases voor elke tool.
In het optimale scenario brengen audits verschillende afdelingen samen, inclusief interne juridische teams en datawetenschappers, naast externe adviseurs of auditors. Naleving en risicobeheer met betrekking tot implementatie van AI is essentieel. In opdracht van het ministerie van Binnenlandse Zaken heeft een team van onderzoekers van de Universiteit van Tilburg, de Technische Universiteit Eindhoven, Vrije Universiteit Brussel en het College voor de Rechten van de Mens, richtlijnen opgesteld voor hoe organisaties die AI willen implementeren, kunnen voorkomen dat hun algoritmes discrimineren.
4. Blijf veranderende wetgeving voor
Geautomatiseerde HR-tools zorgen niet alleen voor potentiële reputatierisico’s en financiële risico’s. Er zijn ook juridische risico’s. Er is snel wetgeving ontstaan in reactie op de verspreiding van AI op de werkplek.
De EU heeft onlangs de AI Act vastgelegd, ‘s werelds eerste uitgebreide AI-wetgeving. In de Europese Unie heeft deze AI Act tot doel risiconiveaus toe te wijzen aan AI-applicaties gebaseerd op hun vermogen onveilig of discriminerend te zijn, en ze vervolgens te reguleren op basis van hun beoordeling. In het huidige voorstel worden bijvoorbeeld AI-applicaties die cv’s scannen, beschouwd als ‘hoge-risico’-applicaties waarvoor strikte nalevingsvereisten gaan gelden.
“De misvatting bestaat dat als een wet niet specifiek gericht is op AI-systemen, het niet van toepassing is op een AI-systeem", zegt Kumarasamy. “Dat is niet waar, vooral wanneer we het hebben over arbeid.” De organisatie is aansprakelijk voor eventuele vooroordelen of de beslissing of je al dan niet wordt aangenomen voor een job.
Audits zijn een goed beginpunt, maar een uitgebreid AI-governance-programma opbouwen is de beste oplossing. Zo kan je je namelijk goed voorbereiden op nieuwe regelgevingsvereisten en ervoor zorgen dat je AI effectief en werkt en gelijke kansen biedt.
Governancesystemen leggen de principes van de organisatie met betrekking tot AI vast en creëren processen om tools continu te beoordelen, en problemen te detecteren en op te lossen. Indeed heeft bijvoorbeeld de eigen principes voor het ethisch en nuttig gebruik van AI bij het bedrijf ontwikkeld en openbaar gepubliceerd. Indeed heeft ook een functieoverschrijdend AI-ethiek-team opgezet dat tools, systemen en processen bouwt om ervoor te zorgen dat technologie verantwoord wordt gebruikt.
Zelfs met voorzorgsmaatregelen is de nieuwe generatie AI-tools complex en feilbaar.
Door echter moeite te doen om ze verantwoord te gebruiken, wordt het mogelijk om betere processen te bouwen. AI kan mensen helpen efficiënter en minder bevooroordeeld te zijn, maar alleen als mensen zorgen voor het nodige toezicht. Er zijn bijvoorbeeld mogelijkheden om kritisch na te denken over de parameters waarmee een AI-algoritme rekening moet houden bij kwalificaties van vacatures, wat een grondige verbetering is van de manier waarop kandidaten worden beoordeeld.
“Hoe komen we echt tot de kern van wat het betekent om succesvol te zijn in een functie?” vraagt Causey. Aanwerven op basis van vaardigheden kan minder bevooroordeeld zijn dan vertrouwen op de naam van een school of bedrijf, iets waarop AI kan afstemmen op een manier die voor mensen misschien niet mogelijk is. “Een gelijk speelveld creëren voor werkzoekenden is echt mogelijk met AI”, aldus Causey.