Vraag en antwoord over werving- en selectie-algoritmes voor werkgevers
Recruitmenttechnologie kan (semi)automatisch kandidaten werven en selecteren. De inzet van algoritmes kan echter ook (onbedoeld) leiden tot discriminatie. Dan handel je als werkgever in strijd met het gelijkebehandelingsrecht. Tien vragen en antwoorden voor werkgevers.
Elke werkgever is op zoek naar de beste kandidaat voor een functie. Tegenwoordig kan je in verschillende fases van het wervings- en selectieproces recruitmenttechnologie inzetten. Voorbeelden hiervan zijn online advertenties, digitale assessments, games, videosollicitaties met gezichtsherkenningssoftware of zelfs cv-matching tools die (semi)automatisch een selectie maken van kandidaten.
Centrale bouwsteen van veel van dit soort recruitmenttechnologie is een algoritme. Een algoritme is een reeks instructies die een computer automatisch kan uitvoeren. Voorbeeld van een relatief simpel algoritme is een als-dan-instructie waarbij kandidaten met een bepaald diploma hoger scoren dan anderen (als diploma X, dan hogere score).
Maar algoritmes kunnen ook zeer complex worden. Zelfs programmeurs snappen dan niet meer helemaal hoe het algoritme leidt tot een bepaalde uitkomst. Zelflerende algoritmes kunnen bovendien zelf op basis van data-analyses de advertentie naar de meest geschikte kandidaten sturen of een voorselectie maken.
Recruitmenttechnologie die gebruikt maakt van algoritmes mag je gebruiken om personeel te werven en te selecteren. Maar de inzet van deze technologie mag niet leiden tot discriminatie.
Algoritmes kunnen bestaande vooroordelen die in de samenleving heersen overnemen en versterken. Zo kunnen algoritmes getraind worden op basis van data die (onbewust) vooroordelen bevatten, ook wel bias genoemd. Een bekend voorbeeld is een selectiealgoritme van het bedrijf Amazon in de Verenigde Staten. Gebaseerd op de profielen van werknemers bij Amazon van de afgelopen tien jaar leerde het algoritme dat mannen vaker dan vrouwen geselecteerd werden voor technische functies. Cv’s waaruit bleek dat iemand vrouw was belandden daarom onder op de stapel.
Ook kunnen bouwers van algoritmes aannames die zij hebben (onbedoeld) verwerken in het algoritme waardoor bepaalde groepen mensen uitgesloten worden. Stel bijvoorbeeld dat het algoritme het criterium ‘aantal onafgebroken dienstjaren’ gebruikt als indicator van de loyaliteit of het goed functioneren van een kandidaat, dan lijkt dit een neutraal criterium. Maar toch zal het algoritme overwegend vaker mensen met een beperking of vrouwen hierdoor uitsluiten. Zij hebben regelmatiger periodes waarin zij niet werken vanwege ziekte of de zorg voor kinderen.
Tot slot is de inzet van recruitmenttechnologie op zichzelf ook geen neutrale keuze. Mensen die niet handig zijn met de computer of een beperking hebben (iemand die slechtziend of slechthorend is bijvoorbeeld), kan game-assessments of een online sollicitatieformulier misschien niet goed of zelfs helemaal niet gebruiken. Zij kunnen dan niet solliciteren, terwijl ze misschien wel heel geschikt zijn om bij jou te werken. Je moet dus zorgen dat digitale formulieren, testen of spellen toegankelijk zijn: dat mensen met een beperking ze ook kunnen invullen, doen of spelen. Zo loop je geen mogelijk talent mis binnen deze groep mensen.
De wet verbiedt het maken van onderscheid op basis van geslacht, ras, leeftijd, een beperking en een aantal andere beschermde kenmerken. Dit heet verboden onderscheid. Er zijn twee vormen van onderscheid: direct en indirect. De inzet van algoritmes kan zowel tot direct als indirect verboden onderscheid leiden.
Direct onderscheid is het benadelen van een kandidaat rechtstreeks op basis van een verboden grond. Denk aan een recruiter die geen vrouwen selecteert voor een functie. Dit kan ook bij een algoritme, bijvoorbeeld als een algoritme concrete variabelen bevat om vrouwen een lagere aanbeveling te geven voor de baan of automatisch af te wijzen.
Bij indirect onderscheid is er sprake van een op het eerste gezicht neutraal criterium dat niet rechtstreeks verwijst naar een verboden grond, maar wel een beschermde groep in het bijzonder treft. Zo zou een algoritme bij een supermarktketen bijvoorbeeld alleen studenten of scholieren kunnen selecteren voor de functie als vakkenvuller. Dit lijkt misschien logisch omdat de keten zoekt naar mensen die geïnteresseerd zijn in een flexibel bijbaantje. Maar je sluit hiermee tegelijk mensen op leeftijd wel uit van deze functie. Want de meeste studenten en scholieren zijn jong. En dat mag niet, leeftijd is een beschermd kenmerk.
Ook als er onverklaarbare verschillen zijn in de samenstelling van de groep die solliciteert en de groep die uiteindelijk door mag naar de volgende ronde, kan er sprake zijn van verboden onderscheid. Zo liet een werkgever na een assessment álle mannen door en slechts één op de drie vrouwen. Dat was onverklaarbaar. Toen oordeelde het College dat deze uitkomst in principe voldoende is om een vermoeden van verboden indirect onderscheid aan te nemen. Dat is namelijk het eerste wat er nodig is als je wilt aantonen dat je bent gediscrimineerd: dat er een vermoeden van verboden onderscheid is. Als je meer wilt weten over het aantonen van discriminatie, bekijk dan deze pagina op onze website.
Ja, jij als werkgever bent verantwoordelijk als de algoritmes die je inzet discrimineren. De reden hiervoor is dat het in het gelijkebehandelingsrecht niet belangrijk is of een computer of een mens het verboden onderscheid maakt. Het onderscheidende effect is wat telt. Volgens de oordelen van het College hebben werkgevers en arbeidsbemiddelaars (zoals uitzendbureaus) de verantwoordelijkheid voor de wervings- en selectieprocedure. Dit geldt ook voor de algoritmes die zij gebruiken.
Je kunt niet wijzen naar de aanbieder van de software en klagen dat die een slecht product heeft geleverd. Je moet zelf bij aan softwareontwikkelaars vragen hoe de algoritmes werken (zodat je dat ook aan sollicitanten kan uitleggen) en vragen of de algoritmes geen groepen mensen uitsluiten en discrimineren.
Sollicitanten en belangenbehartigers die vermoeden dat er verboden onderscheid gemaakt is, zoals bij een sollicitatieformulier waarin vragen worden gesteld over ras, kunnen kosteloos een procedure beginnen bij het College.
Ook kan jij als werkgever een verzoek indienen bij het College over jouw eigen beleid om mensen te werven en te selecteren. Dat heet “een oordeel eigen handelen”. Dat kan je altijd doen, ook als niemand een klacht bij ons heeft ingediend over jouw organisatie.
Naast de weg naar het College staat ook de weg naar de rechter open. Deze volgt doorgaans de oordelen van het College. Een werkgever die verboden onderscheid maakt kan financieel aansprakelijk zijn, zelfs als je niet de bedoeling had om te discrimineren.
Direct onderscheid maken op basis van een verboden grond, zoals een selectiealgoritme dat criteria bevat om vrouwen automatisch af te wijzen, is (bijna) nooit toegestaan. Een zeer beperkte uitzondering is als het gaat om een ‘wezenlijk bepalend beroepsvereiste’, bijvoorbeeld als je zoekt naar een zwarte hoofdrolspeler voor de verfilming van het leven van Nelson Mandela. Een goede stelregel is daarom dat algoritmes geen criteria mogen bevatten die direct onderscheid maken op basis van een verboden grond. Dat een algoritme dus niet direct mensen afwijst op basis van hun leeftijd, nationaliteit of geslacht bijvoorbeeld.
Indirect onderscheid is toegestaan als je hier een objectieve rechtvaardiging voor kan geven. Zo kan het eisen van een ‘perfecte beheersing van Nederlandse taal’ tot indirect onderscheid leiden. Toch mag dit mogelijk wel als deze eis relevant is voor de functie. Zo is deze strenge taaleis waarschijnlijk prima voor een functie als leraar maar niet voor een functie als programmeur. Bij criteria in het algoritme die indirect kunnen leiden tot onderscheid, is het dus belangrijk om te kijken of je hier een objectieve rechtvaardiging voor kan geven.
Door nieuwe technologieën zijn er steeds meer mogelijkheden om advertenties gericht uit te zetten en producten en diensten aan te bieden aan een specifieke doelgroep. Als werkgever kun je ook je vacatures gericht adverteren aan bepaalde groepen mensen. Wanneer je dit doet, moet je wel extra goed opletten dat je niet een beschermde groep uitsluit (bijvoorbeeld op basis van geslacht). Hierbij moeten we twee situaties onderscheiden: er kan sprake zijn van direct onderscheid of indirect onderscheid (zie vraag vier voor het verschil tussen direct en indirect onderscheid).
Direct onderscheid
Het is verboden om als werkgever direct een beschermde groep uit te sluiten van de werving. Biedt de website bijvoorbeeld expliciet een keuzevakje om de baanadvertentie aan mannen of op mensen van een bepaalde leeftijd te richten, dan is dit direct onderscheid en dus niet toegestaan. In veel gevallen wijst het platform er ook op dat dergelijke doelgroepen niet mogen worden gebruikt bij het uitzetten van een vacature.
Indirect onderscheid
Er zijn ook doelgroepen, waarbij je geen direct onderscheid maakt als je advertenties op hen richt, maar gericht adverteren naar die doelgroepen kan wel indirect verboden onderscheid tot gevolg hebben. Wanneer je de vacature bijvoorbeeld richt op studenten, maak je mogelijk indirect onderscheid op basis van leeftijd. Voor indirect onderscheid kan wel een objectieve rechtvaardiging zijn. Het is daarom verstandig als werkgever om advertenties voor vacatures op verschillende manieren uit te zetten en vindbaar te maken voor alle doelgroepen.
Bias in een algoritme
Wanneer je als werkgever een vacature uitzet (bijvoorbeeld via LinkedIn), wil je natuurlijk dat alle geschikte kandidaten je vacature te zien krijgen. Maar ook als je niet zelf een doelgroep hebt gekozen, kan het gebeuren dat een algoritme met bias de vacature toch meer aan een bepaalde groep mensen laat zien. Bij een experiment in het Verenigd Koninkrijk werd bijvoorbeeld ontdekt dat het algoritme van Facebook vacatures voor ‘mechanical jobs’ vooral aan mannen liet zien en vacatures voor ‘nursery jobs’ vooral aan vrouwen.
Daarnaast is het verstandig om vragen te stellen bij de algoritmes die je gebruikt. Is het algemeen bekend dat het algoritme discrimineert (is dit bijvoorbeeld uitgebreid in het nieuws geweest)? Krijg ik structureel van bepaalde groepen veel minder sollicitaties en komt dit mogelijk door het algoritme? Zo verklein je de kans dat je goede kandidaten misloopt vanwege bias in het algoritme van het platform en je mensen onbedoeld uitsluit.
Door een veelheid aan variabelen en interacties, of door het gebruik van zelflerende algoritmes, kan het soms erg moeilijk zijn uit te leggen hoe het algoritme werkt en waarom eruit komt wat eruit komt. Soms kunnen zelfs de experts die het algoritme ontworpen hebben, dat niet. Niet-transparante algoritmes noemt men ook wel een black box: er gaan gegevens in de doos en er komt een resultaat uit, maar waarom en hoe dit resultaat is bereikt, weten we niet.
Wervings- en selectieprocedures moet je inzichtelijk, controleerbaar en systematisch uitvoeren. Dat staat ook in al onze oordelen over dit onderwerp. Dit betekent onder andere dat je duidelijk moet zijn waarom iemand is afgewezen. Dit is noodzakelijk om te voorkomen dat je ongewild verboden onderscheid maakt. Een black box voldoet hier niet aan. Als een procedure niet voldoende inzichtelijk, controleerbaar en systematisch is uitgevoerd, dan draagt dit bij aan het vermoeden dat verboden onderscheid heeft plaatsgevonden.
Daarnaast wordt het ook ingewikkelder om te zeggen dat je een objectieve rechtvaardiging hebt om indirect onderscheid te maken (zie ook de vorige vraag) als een algoritme niet uitlegbaar is. Zo kan een taaleis mensen uitsluiten met een andere nationaliteit, maar dit kan gerechtvaardigd zijn voor beroepen waarbij taal erg belangrijk is, zoals dat van leraar. Om beroep te kunnen doen op deze objectieve rechtvaardiging is het essentieel dat een werkgever kan uitleggen waarom het gerechtvaardigd is dat een bepaalde beschermde groep minder kans had op de baan. Als een werkgever niet kan uitleggen dat er een taaleis hieraan ten grondslag ligt kan hiervoor ook geen objectieve rechtvaardiging aangedragen worden.
De Algemene Verordening Gegevensverwerking (AVG) stelt eisen aan het verwerken van persoonsgegevens van kandidaten. Als het gaat om bijzondere persoonsgegevens is hier een goede reden voor nodig. Voorbeelden van bijzondere persoonsgegevens zijn gegevens die verwijzen naar religieuze overtuigingen, politieke opvattingen, gezondheid of ras en etnische afkomst.
Het gelijkebehandelingsrecht verbiedt het benadelen van een kandidaat of een groep kandidaten op basis van een verboden discriminatiegrond. Dit kan ook gebeuren, terwijl je beleid aan de AVG voldoet. Ook al verwerk je persoonsgegevens rechtvaardig, dan nog kan je die persoonsgegevens gebruiken om bewust of onbewust verboden onderscheid te maken.
Ook wanneer je zelfs geen persoonsgegevens verwerkt, kan een algoritme verboden onderscheid maken. Dit kan gebeuren, omdat algoritmes erg goed zijn in het ontdekken van patronen in data die samenhangen met verboden gronden. Het is dus belangrijk dat om te zorgen dat je wervings- en selectieproces zowel aan de AVG als de gelijkebehandelingswetgeving voldoet.
Algoritmes hebben de potentie om objectiever te zijn dan mensen en kunnen daarom ook worden ingezet om onbewuste vooroordelen van mensen bloot te leggen, bijvoorbeeld in wervings- en selectieprocessen zonder gebruik van technologie. Zo is er software die tekstsuggesties doet voor inclusievere vacatureteksten, en zijn er algoritmes gebruikt om bias bij arbeidsbemiddelaars te ontdekken. Het College heeft zelf voor een onderzoek naar discriminerende vacatureteksten op leeftijd een algoritme gebruikt om online vacatures te doorzoeken.
Maar voorzichtigheid blijft geboden. Onderzoek naar het biasvrij maken van algoritmes staat nog in de kinderschoenen. Bovendien kan technologie neutraal zijn, maar functioneert technologie zelden neutraal in een sociale context.
Meer informatie over de inzet van algoritmes bij werving en selectie is te vinden op de website van het College. In de publicatie Recruiter of computer? vind je meer over het gelijkebehandelingsrecht en de inzet van algoritmes. Het College geeft hierbij vier aandachtspunten op basis van het gelijkebehandelingsrecht voor werkgevers die algoritmes willen gebruiken.
Ook heeft het College een checklist met tips voor werkgevers gepubliceerd die geraadpleegd kan worden bij de inzet van algoritmes bij werving en selectie. Tot slot kun je in het literatuuronderzoek Als computers je CV beoordelen, wie beoordeelt dan de computers? informatie vinden over hoe de inzet van algoritmes tot discriminatie kan leiden en wat de kansen en risico’s zijn.