"Navigeren door het HRTech-landschap."
SLUIT MENU

AI in werving en selectie: risicofactor én bondgenoot in de strijd tegen bias

AI-tools gebruiken bij werving en selectie is niet zonder gevaar, waarschuwt expert Bas van de Haterd. Ook bij selectie door AI kunnen vooroordelen het proces binnensluipen en beïnvloeden. Tegelijkertijd kan AI ook weer een oplossing voor bias bieden. Hoe zit dat precies?

Ieder mens heeft zijn vooroordelen. Bewust of onbewust, in grote en kleine mate. Zo voelen we ons vaak prettiger bij mensen die in zekere zin op ons lijken, bijvoorbeeld omdat ze op dezelfde manier praten of dezelfde hobby’s hebben. 

Dat kan invloed hebben op werving- en selectietrajecten: we kiezen woorden in vacatureteksten die alleen een specifieke groep mensen aanspreken of kiezen eerder voor een man of een vrouw, om maar wat voorbeelden te noemen.

Dat probleem wordt alleen maar groter als we AI gaan inzetten. Vooroordelen van mensen komen incidenteel naar boven én mensen kunnen bewust worden gemaakt van deze risico’s. Maar als bias in een AI terechtkomt, wordt deze stelselmatig toegepast. Vaak zelfs zonder dat de gebruiker zich daarvan bewust is.

“Als je ChatGPT vraagt om een vacaturetekst te tikken, komen daar teksten met heel veel bias uit”, zegt AI- en HR-expert Bas van de Haterd. Hij schreef onlangs nog een whitepaper over AI-oplossingen voor bias in recruitment.

“Systemen als ChatGPT zijn getraind op alles wat er mis was.” Voor dergelijke systemen is namelijk gebruikgemaakt van teksten van het internet, inclusief al die vacatureteksten die vol met – al dan niet onbewuste – vooroordelen zitten.

AI tegen bias in vacatureteksten

Bias in vacatureteksten kan heel subtiel zijn. “Met een term als ‘excellent’ selecteer je meer mannen dan vrouwen”, geeft Van de Haterd als voorbeeld. “Bij een universiteit vroegen ze altijd om een ‘excellent publication record’, maar dat betekent voor mannen iets anders dan voor vrouwen. Voor mannen is ‘excellent’ alles boven de 7. Voor vrouwen is dat minimaal een 9.” 

In dit geval bedoelde de vacaturetekstschrijver geen van beide. Deze persoon wilde alleen dat kandidaten überhaupt ooit iets hadden gepubliceerd in een ‘serieus wetenschappelijk tijdschrift’.

Maar ook ogenschijnlijk onschuldige zaken als ‘de vrijdagmiddagborrel’ kunnen een sollicitant al afschrikken. “Dat schrikt moslims af, want die gaan op vrijdag naar de moskee. Hetzelfde kan gelden voor christelijke mensen: zondag is rustdag. Dus als jij dan gaat promoten dat jullie gezellige uitjes in het weekend doen, dan kun je daarmee mensen afschrikken.”

Hoewel generieke generatieve AI dit soort verstopte bias nog versterkt, is het ook AI dat HR-professionals juist kan helpen om bias weg te nemen. Tools als Textmetrics en Textio sporen bias op en filteren deze eruit. Op die manier ontstaat een vacaturetekst die zoveel mogelijk mensen aanspreekt.

Advertentie per doelgroep

Als een tekst eenmaal geschreven is, moet deze onder zoveel mogelijk relevante ogen terechtkomen. Ook in dit deel van het proces vormt de bias in AI een risico, zegt Van de Haterd. Algoritmes op sociale media proberen zichzelf zo te optimaliseren dat zoveel mogelijk mensen op de advertentie klikken. “Dus als er meer mannelijke IT’ers zijn, optimaliseert dat algoritme uiteindelijk naar mannen.” Met als gevolg dat vrouwelijke IT’ers de advertentie nauwelijks zien en niet op de vacature reageren, terwijl daar misschien wel dé perfecte kandidaat tussen zit.

De oplossing voor dit probleem is om te begrijpen hoe de AI werkt en daarop in te spelen, stelt Van de Haterd. Veel algoritmen staan het niet meer toe om op specifieke groepen zoals vrouwen of moslims te targetten. “Maar als jij een foto van een vrouwelijke IT’er bij je advertentie zet, trekt dat meer vrouwen aan. Dat geldt ook als je arbeidsvoorwaarden noemt die vrouwen belangrijk vinden.”

In de praktijk betekent dit dat er meerdere campagnes moeten worden aangemaakt voor één vacature. Althans, als een bepaalde groep oververtegenwoordigd is in deze functie. “Vrachtwagenchauffeurs zijn vaak mannen, leraren en verpleegkundigen zijn vaker vrouwen. Als je de andere doelgroep wil bereiken, dan moet je dus een tweede campagne maken.”

Geen AI voor shortlists

Het overgrote deel van de bias komt waarschijnlijk naar voren tijdens de beoordeling van cv’s. “85% van alle bias in selectie vindt plaats voor een kandidaat ooit gezien is”, beaamt Van de Haterd. “Ik heb nog nooit een AI-tool gebaseerd op cv-selectie goed zien gaan, simpelweg omdat er nog nooit een onderzoek is geweest dat aantoont dat een cv enige voorspellende waarde heeft. Het vertelt alleen wat iemand heeft gedaan en hoe lang, maar niet hoe goed of onder welke omstandigheden.”

Daardoor komt bias al snel om de hoek kijken, zeker als AI gebruikt wordt om een shortlist te maken. “Alle AI die je op cv-selectie loslaat, is biased, want alle content die het gebruikt, is dat ook.” 

Zoals al eerder beschreven, gebruiken verschillende doelgroepen ander taalgebruik. Een AI pikt dat gemakkelijk op en kan daar – zonder dat dit de bedoeling is – op gaan filteren. 

Je kan LLM’s als ChatGPT wel vragen een ranking te geven van cv’s, maar onderzoek wijst uit dat die heel biased is. “AI is hier niet voor gemaakt, dus moet je het hier niet voor inzetten.”

Meet de cognitieve vaardigheden

Toch kan AI ook tijdens het selectieproces ingezet worden om de juiste kandidaat te vinden. Van de Haterd is persoonlijk onder de indruk van Brainsfirst, een tool die alle cognitieve vaardigheden van kandidaten meet. “Die matchen zij vervolgens met de kwaliteiten die je nodig hebt voor een functie. Dat kan op basis van theorie, maar ook door eerst mensen te testen die heel goed zijn in die functie”, legt hij uit. “Met zo’n test kijken zij of je brein de potentie heeft om te leren en goed genoeg te worden voor die functie. Deze tool is dus vooral geschikt voor starters. Andere tools kunnen weer meer ervaren mensen beter selecteren.”

Interview-tools tegen bias

Tot slot kan AI gebruikt worden om jezelf bewust te worden van je eigen bias. “Er zijn interview-tools die je mee kunt laten lopen bij je online of fysieke interview. Die analyseren dat gesprek”, vertelt de HR-expert. Het gaat dan bijvoorbeeld om In2Dialog en Carv

“Die tools nemen notities tijdens het gesprek, waardoor de interviewer meer gefocust kan zijn op wat er gezegd wordt. Daarnaast zijn ze in staat om te analyseren en een stuk van de bias eruit te halen. Als jij iets hoort wat je niet aanstaat, dan negeer je dat misschien of je valt erover. Zo’n tool schrijft het wel op en maakt een duidelijk beeld van wat iemands drijfveren en vaardigheden zijn. Op die manier krijg je een beter beeld van een sollicitant, zonder dat je eigen (onbewuste) bias in de weg zit.” 

De volgende stap is dus om AI in te zetten om onze menselijke bias meetbaar en aanwijsbaar te maken, je ziet sommige bedrijven bijvoorbeeld deze tools al inzetten om recruiters te wijzen op het feit dat ze mannen of vrouwen meer of minder spreektijd geven”, sluit Van de Haterd af.

Eveline Meijer werkt sinds 2015 als freelance (tech)journalist en tekstschrijver. Haar focus ligt op onderwerpen als security, privacy, AI, IT-beleid, de IT-arbeidsmarkt en softwareontwikkeling. Over dergelijke onderwerpen schrijft Eveline achtergrondverhalen, nieuwsberichten, blogs en interviews. Meer informatie is te vinden op www.evelinemeijer.nl.

Geef een reactie

Je e-mailadres wordt niet gepubliceerd. Vereiste velden zijn gemarkeerd met *