Terwijl organisaties steeds meer vertrouwen op door kunstmatige intelligentie aangedreven rekruteringsplatforms, worden sommige hooggekwalificeerde kandidaten door AI buitengesloten. Dit zegt onderzoeksjournalist Hilke Schellmann, auteur van ‘The Algorithm: How AI Decides Who Gets Hired, Monitored, Promoted, and Fired, And Why We Need To Fight Back’ en assistent-professor journalistiek aan de New York University, in een BBC-artikel. Zij gelooft dat het grootste risico van dergelijke software niet is dat er jobs verdwijnen, maar eerder dat de software verhindert dat gekwalificeerde kandidaten de job krijgen.
Gamified tests en CV-scanners
Van lichaamstaalanalyse en vocale beoordelingen tot gamified tests en CV-scanners, dit zijn enkele van de tools die bedrijven gebruiken om kandidaten te screenen met software voor kunstmatige intelligentie in rekrutering. Sollicitanten worden geconfronteerd met deze machine-aanwijzingen – en AI beslist of ze een goede match zijn of tekortschieten.
Groeiend gebruik van AI
Bedrijven vertrouwen er steeds meer op. Een enquête van IBM eind 2023 onder meer dan 8.500 wereldwijde IT-professionals toonde aan dat 42% van de bedrijven AI-screening gebruikte om rekrutering en human resources te verbeteren. Nog eens 40% van de respondenten overwoog de technologie te integreren. Veel mensen hoopten dat AI-rekruteringstechnologie een einde zou maken aan vooroordelen in het aanwervingsproces. Toch gebeurt in sommige gevallen het tegenovergestelde. Sommige experts zeggen dat deze tools enkele van de meest gekwalificeerde sollicitanten onnauwkeurig screenen – en er groeit bezorgdheid dat de software de beste kandidaten mogelijk uitsluit.
Ondoorzichtigheid
In sommige gevallen zijn bevooroordeelde selectiecriteria duidelijk – zoals leeftijds- of seksisme – maar in andere gevallen zijn ze ondoorzichtig. In haar onderzoek solliciteerde Schellmann naar een baan in een callcenter, om gescreend te worden door AI. Vervolgens logde ze in bij de werkgever. Ze kreeg een hoge beoordeling in het sollicitatiegesprek, ondanks dat ze onzin Duits sprak terwijl ze Engels hoorde te spreken, maar kreeg een slechte beoordeling voor haar werkelijke relevante referenties op haar LinkedIn profiel.
Bevooroordeeld door ontwerp
Veel selectiealgoritmen zijn getraind op één type werknemer – wat betekent dat kandidaten met verschillende achtergronden of referenties kunnen worden gefilterd. Schellmann voegt eraan toe dat sollicitanten zelden ooit weten of deze tools de enige reden zijn waarom bedrijven hen afwijzen – over het algemeen vertelt de software gebruikers niet hoe ze zijn beoordeeld. Toch zegt ze dat er veel duidelijke voorbeelden zijn van systemische fouten.
Schellmann maakt zich zorgen dat de negatieve effecten zich zullen verspreiden naarmate de technologie dat doet. “Eén bevooroordeelde menselijke rekruteringsmanager kan veel mensen in een jaar schaden, en dat is niet geweldig,” zegt ze. “Maar een algoritme dat misschien wordt gebruikt in alle binnenkomende sollicitaties bij een groot bedrijf… dat zou honderdduizenden sollicitanten kunnen schaden.”
Profiteren van de vraag
Uit haar onderzoek maakt Schellmann zich ook zorgen dat softwarebedrijven onderontwikkelde, zelfs gebrekkige producten “in allerijl” op de markt brengen om te profiteren van de vraag. “Verkopers zijn niet van plan om publiekelijk te zeggen dat onze tool niet werkte of schadelijk was voor mensen”, en bedrijven die ze hebben gebruikt blijven “bang dat er een gigantische class action rechtszaak tegen hen komt”.
Boek
In The Algorithm: How AI Decides Who Gets Hired, Monitored, Promoted, and Fired and Why We Need to Fight Back Now geeft de met een Emmy bekroonde Wall Street Journal- en Guardian-medewerker Hilke Schellmann een schokkend en verhelderend exposé over een van de meest urgente burgerrechtenkwesties van onze tijd: hoe AI stilletjes, en meestal uit het zicht, de wereld van het werk heeft overgenomen. Het boek verscheen in januari 2024 en is verkrijgbaar via o.a. Amazon.