Op de eerste Leadership Connect Global Summit spraken Chris Hyams, CEO van Indeed, en Dr. Safiya Noble over het belang van het ethische gebruik van AI bij aanwerving.

Dit artikel is een vertaling van een oorspronkelijk Engelstalig artikel. Links en datapunten uit het oorspronkelijke artikel zijn niet aangepast.

"Veel mensen denken dat als ze AI en algoritmen bouwen, ze alleen met statistiek bezig zijn. En statistiek kan niet racistisch zijn, want het zijn maar cijfers", vertelde Dr. Safiya Noble aan de bijna 100 rekruteringsprofessionals uit 10 verschillende landen op de eerste Leadership Connect Global Summit van Indeed op 20 september. "Naar mijn mening is dat als zeggen dat mensen alleen een verzameling van mitochondriën en cellen zijn. Dat klopt wel, maar het is verre van het totale plaatje."

Dr. Safiya Noble deelde inzichten over hoe bestaande structurele vooroordelen de technologie op basis van algoritmen, zoals AI, beïnvloeden. Ze meent dat het begrijpen van het raakvlak van vooroordelen, technologie en aanwerving "een kwestie van leven of dood is in onze maatschappij".

Indeed Leadership Connect brengt vooraanstaande hr- en rekruteringsprofessionals van over de hele wereld samen om de huidige aanwervingsuitdagingen te bespreken, inzichten te delen en oplossingen te bedenken die alle werknemers helpen om succesvol te zijn. Tijdens dit evenement had Dr. Noble een openhartig gesprek met Chris Hyams, CEO van Indeed, over de beloften en uitdagingen van AI voor aanwerving. Dit onderwerp kwam de volgende dag ook aan bod in veel van de Indeed FutureWorks 2023-presentaties. 

"Dit evenement is echt een call-to-action. Het is een erkenning van onze gezamenlijke kans en verantwoordelijkheid om de toekomst vorm te geven", zei Hyams. Hij sprak recent al met Dr. Noble in een aflevering van de Indeed-podcast Here to Help

Dr. Noble is een professor aan de UCLA, waar ze tevens de Faculty Director is van het Center on Race and Digital Justice en de Co-Director van het Minderoo Initiative on Technology and Power. Ze schreef ook de bestseller Algorithms of Oppression: How Search Engines Reinforce Racism (2018), waarin ze uitlegt hoe de algoritmen achter zoekmachineresultaten gebaseerd zijn op structurele vooroordelen en deze in stand houden.

​​"Voor jullie als werkgevers geldt: denk na over de manier waarop je zoekopdrachten gebruikt om mensen te valideren of te onderzoeken, want deze technologieën zijn totaal niet representatief", zei Dr. Noble. "Een job hebben, jezelf kunnen onderhouden — ik zie dat als een kwestie van leven of dood in onze maatschappij."

Van het definiëren van ‘onderdrukkende algoritmen’ tot het bepalen van het nut van AI-tools zoals software om bias te detecteren: we hebben de hoogtepunten van haar gesprek met Hyams op een rijtje gezet. In dit gesprek kwamen de zorgen over de opkomst van AI aan bod, en hoe je deze kunt wegnemen.

Wat is onderdrukking door algoritmen en wat zijn de gevolgen voor aanwerving?

Hyams begon het gesprek door Dr. Noble te vragen wat ze in haar onderzoek precies bedoelt met ‘onderdrukkende algoritmen’.

"We leven in bepaalde machtssystemen, systemen die worden bepaald door een geschiedenis van racisme en seksisme", zegt Dr. Noble. "De instructies die we aan computers geven — meer zijn algoritmen eigenlijk niet — zijn verbonden met machtssystemen. En zoals Cathy O'Neill, mijn collega die het geweldige boek Weapons of Math Destruction (2016) schreef, zegt: “algoritmen helpen mensen die al goed presteren om nog beter te presteren, en mensen die niet goed presteren nog slechter te presteren." 

Dr. Noble vertelde wat haar ertoe aanzette om te onderzoeken hoe zoekmachines vooroordelen versterken. In haar werk als marketeer vóór de opkomst van SEO (zoekmachineoptimalisatie), “speelde” ze met zoekmachines om ervoor te zorgen dat haar klanten op de eerste pagina met resultaten verschenen. Hoewel veel mensen zoekmachines toen als openbare bibliotheken zagen, zag zij deze als technologie die werd aangedreven door advertenties.

"Ik begon na te denken over wat er gebeurt wanneer je kennis over mensen toegankelijk en beschikbaar wilt maken, en ze afhankelijk van een zoekmachine zijn", zei ze. Ze gebruikte categorieën voor ras, etniciteit en geslacht uit de volkstelling van de VS en voerde verschillende zoekopdrachten uit om ze te testen. "De resultaten waren verbluffend", zei ze. "Wanneer je zocht naar zwarte vrouwen, latina vrouwen, Aziatische vrouwen, kreeg je vrijwel alleen pornografie in de resultaten. Je hoefde niet eens het woord 'seks' of 'porno' toe te voegen. Meisjes van kleur, vrouwen van kleur, stond gelijk aan pornografie."

"Daar denk ik aan wanneer ik aan onderdrukkende algoritmen denk; de manier waarop deze technologieën in machtssystemen werken, hebben grote gevolgen voor personen en gemeenschappen", zei ze. 

Dit probleem treedt op tijdens het aanwervingsproces, wanneer werkgevers de achtergrond van hun kandidaten proberen te onderzoeken. "We weten niet alleen dat zoektechnologieën worden gebruikt om mensen te screenen, maar ook dat deze vaak fouten bevatten", zei Dr. Noble. Ze gaf het voorbeeld van Latanya Sweeney, een gerenommeerde professor in computerwetenschappen die werkte als Chief Technologist bij de Federal Trade Commission (FTC) in de VS. Toen ze solliciteerde op een job bij Harvard, vroeg de interviewer Sweeney naar haar (niet-bestaande) criminele verleden, omdat het invoeren van haar naam advertenties voor antecedentenonderzoek opleverde.

"Dus voerde ze een heel bekend onderzoek uit waarbij ze meer dan 1000 Afro-Amerikaans klinkende namen zoals die van haarzelf, Latanya, invoerde in een zoekmachine om te zien wat er zou gebeuren", zei Dr. Noble. "Bij een naam die 'zwart' klonk, draaiden de weergegeven advertenties en hoe je werd neergezet om antecedentenonderzoek, databases met politiefoto's en dergelijke."

"Dat toont aan dat de woorden die worden gekoppeld aan bepaalde mensen en ideeën, of het nu gaat om hun naam, etnische kenmerken, klassenkenmerken, het deel van het land waarin ze wonen of hun postcode, sterk zijn geïntegreerd in zoveel van die technologieën,” zei ze.

Hyams pleitte ervoor dat rekruteringsprofessionals zichzelf informeren over de mogelijke negatieve gevolgen van AI-tools, zoals is gebleken uit het onderzoek van Dr. Noble, voordat ze die voor aanwerving gebruiken. "Je kunt geen grote systemen bouwen zonder training en back-upsystemen en dergelijke om ervoor te zorgen dat ze veilig worden gebruikt", zei hij. "Daarom pleiten we ervoor om de uitdagingen [van AI voor aanwerving] te begrijpen, zodat we kunnen nadenken over hoe we zo veilig mogelijk te werk kunnen gaan."

Hoe effectief zijn automatische bias scanners en AI-tools voor rekrutering?

Veel mensen die werkzaam zijn in talent acquisition gebruiken tools om vooroordelen of bias te detecteren en om content zoals vacatureteksten te controleren op taalgebruik dat mensen uitsluit. Hyams vroeg de aanwezigen om hun hand op te steken als ze zulke tools gebruikten, en er was enige instemming in de zaal. Dr. Noble erkent dat deze tools een stap in de goede richting zijn, maar voegde daaraan toe dat het oordeel van een rekruteerder nog steeds de belangrijkste bescherming tegen vooroordelen is. "We moeten nog steeds heel actief blijven uitspreken wat onze waarden zijn, wie we zoeken, wat de waarde van diverse teams is", zei ze.

"Toen ik werkzaam was in de multiculturele reclame- en marketingsector, benadrukten we altijd bij onze klanten dat je heel duidelijk moet zijn wanneer je Afro-Amerikanen uitnodigt voor een evenement", legt Dr. Noble uit. "Voor vacatures geldt ook dat wanneer mensen zichzelf er niet duidelijk in herkennen, ze er niet op solliciteren of ervan uitgaan dat je op zoek bent naar kandidaten van die vijf vooraanstaande universiteiten. Mensen sluiten zichzelf uit op basis van de manier waarop we vacatures schrijven."

Hyams waarschuwde ervoor om te afhankelijk te worden van technologie tijdens het aanwervingsproces. "Zelfs als er een soort magische technologie bestond die alle problemen met andere technologie zou tegengaan, zou je niet willen dat die volledig automatisch werkte, want je wilt dat je teams zich bewust zijn van deze zaken en erover nadenken", zei hij.

Dr. Noble moedigde de mensen aan die AI-tools gebruiken om het aantal sollicitanten te filteren en om alle cv's te bekijken, niet alleen de cv's die zijn geselecteerd door een AI-filter. "AI is de ultieme standaardisatie; het is de ultieme classificatietool. Daar moet je rekening mee houden", zei ze. "Het laat ons niet het volledige beeld zien en helpt ons niet de beweegredenen en het verleden van mensen te begrijpen."

Hyams pleitte voor het gebruik van AI om je beslissingsproces voor aanwerving te verbeteren, niet te vervangen. De AI-tool Gematchte kandidaten van Indeed raadt kandidaten aan van wie de profielen aansluiten op je vacatureteksten, maar het is nog steeds aan de rekruteerder om de beste match te bepalen. Door deze combinatie van aanwerving met AI en met mensen, is de kans 17 keer groter dat kandidaten solliciteren op een functie.

Als onderdeel van het streven van Indeed om tegen 2023 30 miljoen werkzoekenden met een afstand tot de arbeidsmarkt aan een job te helpen, heeft Indeed zich ingezet om aanwerving op basis van vaardigheden, en niet op basis van persoonsgegevens, te bevorderen. "We zeggen graag dat talent universeel is, maar kansen niet", zei Hyams. "Dus als je gelooft dat de kansen niet gelijk zijn verdeeld en je naar vacaturetitels kijkt om te zien of iemand geschikt is voor de job, dan hou je deze ongelijkheid gegarandeerd in stand."

Dr. Noble zei: "Er is geen alternatief voor je intuïtiecheck, een gesprek voeren met iemand en naar hun verhaal luisteren. Die verhalen zijn heel krachtig en informatief en kunnen veel organisaties verbeteren."

Hoe gaan we onderdrukking door algoritmen tegen?

Hyams vroeg aan Dr. Noble wat zij en haar team, dat voorop loopt bij het identificeren van deze problemen, aanbevelen om dit tegen te gaan. "Ik denk vaak aan wie de technologie maakt", zei Dr. Noble. "We weten dat vrouwen en mensen van kleur, met name zwarte, latino en inheemse studenten, sterk zijn ondervertegenwoordigd in technische studies. Ze komen niet bij de grote techbedrijven terecht."

Ze wees erop dat mensen die geestes- of sociale wetenschappen hebben gestudeerd, doorgaans werkzaam zijn in sectoren als marketing en public relations. Hun opleiding is echter net zo waardevol op technisch gebied. Ze raadde aan om diverse teams met diverse kennis te gebruiken om producten of systemen te ontwikkelen. "Terwijl we deze problemen met de pipeline proberen op te lossen, zouden we deze mensen — met een PhD in Afro-Amerikaanse wetenschappen, genderwetenschappen, inheemse wetenschappen — moeten aannemen, en ze net zoveel invloed geven als iemand met een PhD in computerwetenschappen", zei ze.

Op structureel niveau pleitte ze voor het reguleren van deze tools op een manier die alle vormen van discriminatie tegengaat. "We moeten uitzoeken wat het betekent dat mensen dit soort technologie kunnen maken en introduceren in de maatschappij, zonder verantwoording af te leggen, afgezien van zelfregulatie. Nogmaals, deze technologie kan dramatische gevolgen hebben", zei ze.

Waar beginnen we?

Bij de vragenronde vroeg een deelnemer hoe ze een begin kon maken om dingen te veranderen binnen haar bedrijf. Dr. Noble benadrukte het belang van het controleren van alle aanwervingsbeslissingen en de impact ervan op verschillende bevolkingsgroepen, en van het ter verantwoording roepen van leveranciers. "Vraag leveranciers om verantwoording aan je af te leggen en je uit te leggen met welke databases de AI is getraind, waar de data vandaan komen, hoe we ze kunnen aanpassen, en hoe de AI leert", zei ze.

Door hierover in gesprek te blijven, wordt het makkelijker om hierover met je teams en managers te praten. "Deze gesprekken kunnen specifiek voor elke kernactiviteit van een bedrijf plaatsvinden, of het nu gaat om HR, supply chain management of andere soorten diensten", zei ze. Ze moedigde rekruteringsprofessionals aan om verantwoorde AI als ESG-doel (Environmental, Social & Governance) in te stellen en een intern team aan te nemen dat zich dagelijks op deze kwestie kan richten in alle onderdelen van de organisatie.

Werkgevers kunnen hun teams ondersteunen door verschillende vaardigheden en ESG-inspanningen te stimuleren. "Iets wat we nu in het hoger onderwijs doen is … ons streven naar en werk rond diversiteit en inclusie belonen en beoordelen als onderdeel van onze prestatiebeoordeling", zei Dr. Noble. "Dat verandert de manier waarop we prioriteit geven aan verschillende soorten werkzaamheden en deze waarderen."

Ze gaf toe dat het lastig kan zijn om deze veranderingen door te voeren, omdat het een volledige omslag in de bedrijfscultuur vereist. Maar managers hoeven niet één groot actieplan te bedenken. In plaats daarvan "zijn het dagelijks een miljoen kleine beslissingen die tot verandering leiden", zei ze.

Bijschrift: Chris Hyams, CEO van Indeed, interviewde Dr. Safiya Noble al eerder voor een aflevering van de Indeed-podcast Here to Help.

Als je meer wilt weten over vooroordelen in algoritmen en je team hierover wilt informeren, bekijk dan deze leeslijst die Dr. Safiya Noble heeft samengesteld. Volgens haar word je hiermee "de boeiendste persoon op een borrel". Je kunt haar werk blijven volgen op safiyaunoble.com.