Artifical intelligence kan je carrière maken of breken
Software die al jouw activiteiten op sociale media in kaart brengt en daarna voorspelt of je op kantoor grensoverschrijdend gedrag gaat vertonen ꟷ via kunstmatige intelligentie brengen recruiters steeds nauwkeuriger in kaart wat voor vlees ze in de kuip hebben. Een mooie ontwikkeling? „Dit kan iemands leven enorm beïnvloeden.”

Gelukkig, je bent door de werving gekomen. Nu zit je in de selectieprocedure voor die nieuwe baan. Ervaring heb je, maar pas je ook bij de cultuur van het bedrijf? Ben je wel gemotiveerd? De recruiter vraagt of je wilt meedoen aan een test. Tuurlijk. Terwijl je een video over het bedrijf bekijkt, volgt de webcam jou en maakt kunstmatige intelligentie (AI) scans van de expressies op je gezicht. Ook beantwoord je vragen over je motivatie. Mensen die slecht gemotiveerd zijn, tonen weinig spierbewegingen in de kin, de mond en de kaak, is de theorie. En welk patroon vertoont je spraak eigenlijk? De software analyseert je antwoorden en reacties, waarna de recruiter een lijst afvinkt.

Toekomstmuziek? Nee, deze procedure wordt al op sollicitanten losgelaten. „Ieuw”, is de primaire reactie van Hans de Zwart, onderzoeker en docent aan de Hogeschool van Amsterdam (HvA). Hoezo “Ieuw”? Is het dan niet handig om videoanalyse te gebruiken om te kijken of een sollicitant geschikt is?
„Het is software die emoties probeert te herkennen”, legt De Zwart uit. Als filosoof houdt hij zich bezig met de ethiek van technologie. Er is geen wetenschappelijk bewijs dat emotie met computers valt te herkennen, zegt De Zwart. “Doe je dat toch, dan ben je bezig met een soort digitale schedelmeting.”
AI ontploft
Kunstmatige intelligentie (KI), Artificial Intelligence (AI) in het Engels, dringt overal ons leven binnen, ook bij zoiets ingrijpends als solliciteren. Of in de woorden van Vincent Slot, algoritmeontwikkelaar bij Textkernel, leverancier van software voor werving en selectie: „AI ontploft momenteel.”
In het hele proces zit kunstmatige intelligentie verweven, met videoanalyse als een van de meest indringende voorbeelden. Andere AI-wervingstools zijn relatief simpel, zoals informatie uit grote hoeveelheden cv’s en vacatures analyseren en aan elkaar koppelen. Maar kandidaten die daarna op gesprek mogen, krijgen op een andere manier met kunstmatige intelligentie te maken, bijvoorbeeld wanneer hun besluitvaardigheid wordt getest. Of zodra hun manier van spreken wordt geanalyseerd, in de veronderstelling dat taalgebruik iemands karakter weerspiegelt.

Dirk Meeuws werkt bij Mysolution, een bedrijf dat AI-software aan recruiters levert. Hij adviseert kunstmatige intelligentie vooral in te zetten aan het begin van het traject. „Stel een recruiter zoekt een IT-manager. Dan maakt hij in zijn hoofd een plaatje van wie hij zoekt en het gewenste cv. Vervolgens komt AI in beeld.” Omdat IT’ers schaars zijn, kan kunstmatige intelligentie bijvoorbeeld op zoek gaan naar financiële deskundigen die in IT gespecialiseerd zijn. Meeuws: „Op zo”n creatieve manier meedenken; daar zit de kracht van AI.”
Kunstmatige intelligentie moet recruiters niet vervangen, maar helpen en aanvullen in hun besluitvorming, zegt Meeuws. Hij brengt in herinnering hoe tijdens de coronapandemie het werk in de horeca stilviel. Omdat er overlap zit tussen de horeca en de gezondheidssector qua gastvrijheid en verzorging, bleek AI in staat zorgmedewerkers in de horeca te vinden. Meeuws: „Kunstmatige intelligentie ziet andere verbanden dan menselijke recruiters. Het zou mooi zijn als AI vaker zij-instromers kan identificeren en koppelen aan de juiste baan.”
Meer mannen dan vrouwen
Filosoof en docent Hans de Zwart heeft, samen met collega Pascal Wiggers, onderzoek gedaan naar het gebruik van AI bij personeelswerving en -selectie. Hij ziet een aantal voordelen, zoals AI-software die checkt of je vacaturetekst wel inclusieve taal gebruikt. Want een tekst die bijvoorbeeld ronkt over ”stressbestendigheid” of ”commercieel denken” blijkt vooral mannen aan te spreken.
Maar De Zwart ziet toch vooral veel risico’s. Het grootste is misschien wel dat AI-modellen vol vooroordelen zitten. „Ze worden getraind met bestaande gegevens, bijvoorbeeld over de prestaties van medewerkers die een organisatie al heeft. Dan is de kans groot dat je als organisatie meer van dezelfde mensen krijgt. Amazon in de VS overkwam dit: het algoritme stuurde vrouwelijke sollicitanten weg, omdat het had geleerd dat bij Amazon vooral veel succesvolle mannen werken.”
Dit is voor de HvA-onderzoeker niet het enige bezwaar. Hij hekelt een steeds populairdere methode: advertentie-algoritmes die bepalen wie welke vacatures te zien krijgen. Op deze wijze krijgen groepen met specifieke kenmerken bepaalde vacatures niet onder ogen. Vrouwen bijvoorbeeld, of 50-plussers. „Of het algoritme bepaalt dat mannen een vacature in de zorgsector niet te zien krijgen.”

Voorstanders van AI-tools bij werving en selectie ontkennen deze negatieve kanten vaak niet. Maar, zo luidt het verweer, recruiters van vlees en bloed zijn ook niet vrij van vooroordelen. Soms zijn deze onbewust. Klopt”, erkent De Zwart. „Maar goede recruiters weten hoe ze dit zo veel mogelijk kunnen neutraliseren. Door kandidaten op zo veel mogelijk manieren te beoordelen. Door ze te interviewen aan de hand van dezelfde vragen. Door ze iets te laten doen dat lijkt op het werk waarvoor ze worden geworven. Door verschillende mensen te laten meekijken.”
Huidskleur en zwangerschapsverlof
Uiteindelijk kunnen sollicitanten dan nog steeds op oneigenlijke gronden worden afgewezen. Dus toch maar liever kunstmatige intelligentie? De Zwart legt uit dat wie wordt afgewezen door iemand die discrimineert op huidskleur, geslacht of leeftijd, het altijd nog ergens anders kan proberen. „Maar als een AI-systeem een vooroordeel heeft, dan heb je daar meteen last van bij élk bedrijf dat dit systeem gebruikt.”
Uit deze voorbeelden blijkt hoeveel ethische vragen er opduiken als kunstmatige intelligentie wordt ingezet bij personeelswerving. Voor algoritme-ontwikkelaar Vincent Slot is het verantwoord gebruik van AI „belangrijker dan ooit.” Ter illustratie vertelt hij dat algoritmes weliswaar geen onderscheid mogen maken tussen vrouwen en mannen, maar dat hij een opvallend voorbeeld kent waarbij een algoritme een bepaalde kandidaat toch lager waardeerde. „Waarom? Omdat het cv van deze sollicitant vermeldde dat er ooit zwangerschapsverlof was opgenomen.”
Slot werkt er hard aan om dit soort discriminerende elementen uit de AI-software te halen, zegt hij. Een algoritme moet na te rekenen zijn; er mag geen onduidelijkheid zijn over de gemaakte afwegingen. “Omdat AI steeds vaker wordt gebruikt, is de schade ook groter als algoritmes niet transparant en niet voorspelbaar zijn. Dat telt bij sollicitaties extra zwaar: het wel of niet krijgen van een baan kan iemands leven enorm beïnvloeden.”
Verborgen voorkeuren
Terug naar de populaire, maar ook omstreden selectiemethode waarbij videoanalyse emoties probeert te herkennen op basis van gelaatsuitdrukkingen. Zouden leverancier Dirk Meeuws en ontwerper Vincent Slot dit aan hun klanten adviseren. „Ik zeg niet: nooit”, reageert Meeuws. „Maar als je dit inzet, dan moet je als recruiter goed weten waarmee je bezig bent. Het gevaar van AI is immers dat er verborgen voorkeuren in zitten. Bovendien zijn emoties van mensen moeilijk te meten. Stel dat een kandidaat om een onduidelijke reden gestrest is, dan is een bepaalde reactie tijdens een videoanalyse waarschijnlijk een momentopname. Maar recruiters hebben niets aan momentopnames.”

Meeuws wijst op nog een andere, complicerende factor. „Recruiters beschikken over veel onderscheidend vermogen, maar het goed interpreteren van een videoanalyse vergt wel het een en ander aan ervaring. We zien echter dat recruiters steeds korter in het vak zitten.”
Slot wijst videoanalyse resoluut van de hand. „Kunstmatige intelligentie is sterk in een eerste selectie van sollicitanten, want op dat moment wordt gewerkt met objectieve criteria, zoals ervaring en competenties. Maar verderop in het proces gaat het om zachtere eigenschappen van kandidaten. Of iemand bij de cultuur van een onderneming past, is subjectief. Dan is AI ongewenst.”
Het is vaak niet duidelijk waarom een algoritme iemand negatief beoordeelt op zoiets als motivatie. Slot wijst in dit verband op de zogenoemde AI Act: een nieuwe verordening in de Europese Unie die beperkingen oplegt aan autonoom handelende computersystemen en algoritmes. Besluitvorming of voorspellingen aan de hand van kunstmatige intelligentie moeten transparant zijn en mogen niet discrimineren.
Slot: „De AI Act benadert kunstmatige intelligentie zoals een nieuw medicijn wordt beoordeeld: toegestaan als er geen schade wordt aangericht. Terecht. Kunstmatige intelligentie kan zo diep ingrijpen in de levens van mensen, dat hier zeker ethische afwegingen bij horen.”
Grensoverschrijdend gedrag
Tot slot: hoe zit het met de casus aan het begin van dit artikel? Kunnen algoritmes op basis van je uitlatingen op sociale media inderdaad voorspellen dat je grensoverschrijdend gedrag gaat vertonen? „Dit voorbeeld komt uit de Verenigde Staten”, vertelt filosoof Hans de Zwart. „Ik mag toch hopen dat dit in Nederland niet aan de orde is. Sociale media vormen een heel ander domein dan werk, en gedrag is sowieso heel lastig te voorspellen.”

Dirk Meeuws zegt geen software te leveren die iemands doen en laten voorspelt aan de hand van sociale media. „Ik kan me voorstellen dat recruiters zelf een kijkje op sociale media nemen, maar als bedrijf willen wij dit niet faciliteren. Je weet de context van bepaalde uitingen niet, dus je krijgt dan al snel een vervormd beeld van iemand. Dat staat haaks op mijn opvattingen over gelijke kansen voor iedereen.”