Interview: ‘Collega’s zullen nooit volledig afgaan op wat onze algoritmes zeggen’
Verdieping
Stel, een algoritme maakt een selectie van een stapel sollicitatiebrieven. De machine kijkt niet naar leeftijd, achternaam of genderidentiteit. Is discriminatie daarmee uitgesloten? Nee, zegt datawetenschapper David Graus van Randstad. Want dan nog kunnen er vooroordelen in het systeem sluipen, legt hij uit. ‘En die zijn er nooit helemaal uit te halen.’ Een interview met hem, en zijn collega Joke de Groot.
Omdat we nooit iemands religie of seksuele geaardheid registreren, is het lastig om vast te stellen of mensen daar indirect toch op worden gediscrimineerd
Ooit, nog niet eens zo heel lang geleden, was je als werkzoekende bij een uitzendbureau overgeleverd aan de eventuele grillen van de medewerkers. Deze zogenoemde intercedenten beoordeelden het formulier dat je had ingevuld en keken of jouw profiel aansloot bij de nog openstaande vacatures. Daarbij wogen ze vanzelfsprekend je werkervaring en opleiding mee, maar ook de onderbuik zal soms (onbedoeld) een rol hebben gespeeld. Want hoe professioneel intercedenten ongetwijfeld ook zijn, als diegene jou sympathiek vond, had je misschien toch wel een grotere kans op een match bij een leuke werkgever dan iemand anders met een vergelijkbaar profiel. Het blijft immers mensenwerk.
In de tijd van robotisering, algoritmes en artificiële intelligentie lijkt dat voorbij te zijn. Zodra je een online formulier hebt ingevuld is het niet een persoon met een hartslag en een mening die er als eerste een blik op werpt, maar een computersysteem. Razendsnel scant deze software jouw profiel en binnen een mum van tijd rollen er vacatures uit het systeem die aansluiten bij jouw capaciteiten. En omdat het algoritme hierachter nu eenmaal geen oog heeft voor subjectieve zaken, lijkt deze zo een eerlijker uitkomst te geven. Immers, een algoritme heeft geen emoties en beoordeelt je niet op zijn onderbuik of een goede ‘klik’.
Hoewel dat laatste klopt, betekent dat niet dat een algoritme neutraal is, stelt datawetenschapper David Graus. Hij werkt sinds 2020 voor Randstad en geeft leiding aan een multidisciplinair team dat deze ingewikkelde computersystemen bouwt voor de grote hr-dienstverlener en uitzendonderneming. Die systemen kunnen wel degelijk de menselijke vooroordelen overnemen, zegt hij in een gesprek via MS Teams.
Indirecte voorkeur voor mannen
Hij noemt het vaker gebruikte voorbeeld van Amazon. Om sollicitatieprocedures te versnellen ontwikkelde de Amerikaanse webwinkel jaren geleden een algoritme dat de cv’s van sollicitanten scande. De afdeling personeelszaken had jarenlang veel selecties voor sollicitatie procedures gemaakt, die nu gebruikt konden worden om het algoritme te trainen. Zo kon het algoritme voortaan bij iedere nieuwe sollicitatieronde zelf een schifting maken van geschikte kandidaten. Hr-medewerkers hoefden dus niet meer door een stapel cv’s en motivatiebrieven heen, maar konden afgaan op de selectie die het algoritme voor hen had gemaakt.
Maar omdat er bij Amazon veel minder vrouwen werken dan mannen, bleek het systeem een grote voorkeur te vertonen voor mannen. "En daar ging het algoritme vrij ver in", zegt Graus. Had iemand bijvoorbeeld in het bestuur gezeten van een ‘vrouwenschaakclub’, dan kreeg de sollicitant een lagere beoordeling. Terwijl je als voorzitter van ‘een schaakclub’ juist een pluspunt van het algoritme kreeg.
Graus legt uit dat de systemen van Randstad niet zo te werk gaan. ‘Onze algoritmes krijgen sowieso niet te zien wat iemands genderidentiteit, leeftijd en geboorteplaats is. De algoritmes krijgen al helemaal niet te zien wat iemands religie, eventuele migratieachtergrond of seksuele geaardheid is, omdat we die zaken sowieso niet registreren’, zo zegt hij.
Toch kwam Randstad niet helemaal smetvrij uit een test die wetenschappers van de Amsterdamse Vrije Universiteit in samenwerking met het College voor de Rechten van de Mens in 2018 en opnieuw in 2020 uitvoerden. Met een algoritme scanden de onderzoekers drie miljoen vacatures die bij onder andere uitzendbureaus waren uitgezet op mogelijke leeftijdsdiscriminatie. Hoewel Randstad het relatief gezien niet slecht deed in vergelijking met de concurrenten – bij een paar procent van hun vacatures was iets mis – scoorden ze in absolute zin wel vrij slecht. Omdat ze nu eenmaal het grootste uitzendbureau van Nederland zijn, zaten ze al snel aan veel grotere aantallen.
Fysieke kaartenbakken
‘En daar baalden we ontzettend van’, zegt Joke de Groot, directeur HR flex bij Randstad die ook deelneemt aan het Teams-gesprek. ‘Randstad doet er echt alles aan om discriminatie uit te sluiten en wil iedere werkzoekende een gelijke kans bieden’, zegt ze. ‘Dus dan is het heel teleurstellend als je zo uit een test komt.’ In 1984 begon De Groot bij Randstad als medewerker bij een filiaal in Rotterdam. Dat was de tijd waarin uitzendbureaus profielen en vacatures nog in fysieke kaartenbakken bewaarden, en intercedenten nog handmatig te werk gingen. Ook was het de tijd waarin er nog niet zo streng gekeken werd of er bij de werving en selectie misschien sprake was van discriminatie, vult De Groot aan.
‘Werkgevers zeiden soms heel duidelijk dat ze bijvoorbeeld per se een man wilden, of dat iemand niet ouder mocht zijn dan een bepaalde leeftijd. Of geen migratieachtergrond mocht hebben’, herinnert ze zich. Pas sinds eind jaren tachtig werd daar kritischer naar gekeken, vertelt ze. Zelf probeerde De Groot al langer vooroordelen te doorbreken: ‘Als werkgevers vroegen om een man dan schoof ik regelmatig toch ook vrouwen naar voren die geschikt waren voor de functie. Vaak stemden ze daar mee in.’
Inmiddels is De Groot opgeklommen tot directeur HR Flex binnen Randstad en geeft ze leiding aan de afdeling die de personeelszaken regelt voor alle uitzendkrachten van Randstad. ‘Talenten, noemen we hen. Of professionals. Het zijn er inmiddels zo’n 70.000 per dag. Je moet dan denken aan vrachtwagenchauffeurs, juristen, verpleegkundigen, logistiek managers, maar bijvoorbeeld ook aan de suppoosten bij Ajax. Sommigen werken slechts een dag of enkele dagen voor ons, maar er zijn ook mensen die jarenlang namens ons ergens werkzaam zijn.’
Algoritmes niet veel meer dan een hulpmiddel
Gelukkig waren ze dus zeker niet met het rapport over leeftijdsdiscriminatie in hun vacatures, en Randstad nam daarom zelf contact op met het College om het gesprek aan te gaan. ‘We vroegen hen wat we ervan konden leren en hoe we onze werkwijze konden verbeteren.’ De eerste stap daarin was vrij simpel. Het College lichtte het onderzoek en de relatie met de gelijkebehandelingswetgeving toe, waarna Randstad vacatureteksten anders is gaan opstellen. ‘Bepaalde woorden gebruiken we sindsdien niet meer’, zegt De Groot. ‘Neem het woord ‘junior’. Dat is misschien niet zo bedoeld, maar het weerhoudt veel oudere mensen ervan om te solliciteren, terwijl zij misschien wel gekwalificeerd zijn.’
Sindsdien voert De Groot een keer per kwartaal gesprekken met het College, om wetgeving en eventuele knelpunten bij werving en selectie te bespreken. Daarbij gaat het zeker ook over de algoritmes die Randstad gebruikt bij de werving en selectie.
Want die zijn evenmin perfect, zegt Graus. ‘We zullen dan ook nooit zeggen dat intercedenten altijd volledig moeten afgaan op wat onze algoritmes zeggen. Die systemen zijn niet veel meer dan een hulpmiddel voor hen, en zo moeten die algoritmes ook worden gebruikt. Altijd zal er iemand moeten meekijken of er niet iets misgaat.’
Want hoewel het systeem kenmerken als leeftijd, genderidentiteit en etniciteit niet kan zien, zou er indirect alsnog sprake kunnen zijn van discriminatie. Zo zou een algoritme bijvoorbeeld een lagere score kunnen geven aan de postcode van een sollicitant. Als je in een wijk woont met veel mensen met een migratieachtergrond kan het systeem je zo alsnog ongelijk behandelen. ‘En daarom is ook de woonplaats en postcode onzichtbaar voor het systeem’, zegt Graus glimlachend. ‘Het systeem ziet alleen wat de fysieke afstand is tussen werkplek en woonplaats.’
Waterbedeffect
En dan kun je nog steeds niet uitsluiten dat er alsnog indirecte discriminatie insluipt, zegt Graus. Of dat inderdaad gebeurt en hoe goed of slecht de algoritmes van Randstad het uiteindelijk doen, kan hij niet met zekerheid zeggen.
‘Wel doen we interne metingen naar eventuele vooroordelen in het systeem, en daar kwam tot nu toe een vrij genuanceerd beeld uit’, zegt hij. Voorbeelden van waar het in het verleden misging en waar Randstad het systeem heeft moeten bijstellen, kent hij niet.
Wat je niet moet vergeten, vult Graus aan, is dat de database met werkzoekenden vrijwel nooit een volledige afspiegeling is van de samenleving. Het is maar net wie zich bij Randstad heeft aangemeld. Daardoor kunnen de verhoudingen tussen de vertegenwoordigde groepen heel scheef zijn. "In een database kunnen bijvoorbeeld veel meer mannelijke werkzoekenden zitten dan vrouwelijke. Stel die verhouding is 85 om 15 procent. Als je in je selectie toch evenveel vrouwen als mannen wilt hebben, zou het zomaar kunnen dat die schifting dan op andere gronden heel scheef wordt. Als er onder die 15 procent vrouwen vooral veel twintigers voorkomen, wordt het systeem als het ware gedwongen om onevenredig veel mensen te selecteren in die leeftijdscategorie, simpelweg omdat er te weinig vrouwelijke kandidaten met andere leeftijden beschikbaar zijn."
‘Fairness gerrymandering’, wordt dat ook wel genoemd, zegt Graus. Er ontstaat dan een soort waterbedeffect: je wilt genderdiscriminatie tegengaan, maar discrimineert vervolgens onbedoeld op basis van een andere grond.
En als je om dat tegen te gaan dan een tweede kenmerk zou begrenzen, maak je het eigenlijk alleen maar erger. ‘Stel je vraagt de machine tien kandidaten te selecteren, onder wie vijf mannen en vijf vrouwen. Daarnaast moeten er bijvoorbeeld vijf kandidaten een migratieachtergrond hebben, en vijf niet. Dan zou het systeem vijf vrouwen met een migratieachtergrond kunnen selecteren, en vijf mannen zonder migratieachtergrond. Zo voldoet het aan de begrenzingen, maar discrimineert het wel. En dat probleem zal alleen maar groter en groter worden zodra je nog meer kenmerken op slot zet.’
En dan zit er ook nog een paradox in het systeem, vult Graus aan. ‘Omdat we mensen niet willen discrimineren op basis van geloofsovertuiging of bijvoorbeeld seksuele oriëntatie, registreren we dat niet van mensen. Wettelijk mogen we dat volgens mij ook niet doen. Gevolg is wel dat we daardoor niet kunnen meten of het systeem hen onbedoeld toch discrimineert. Met steekproeven zouden we dat misschien nog kunnen testen, maar dan nog zul je dat nooit met zekerheid kunnen stellen.’
Ook daarom moet zo’n systeem dus nooit zelfstandig opereren, en kijken er altijd intercedenten mee, zegt hij. ‘Stel iemand voert een bepaalde vacature in, en uit het systeem rollen bijna alleen maar profielen van mannelijke kandidaten. Dan zul je altijd moeten kijken wat er niet klopt. Misschien ligt het aan de manier waarop de vacaturetekst is geformuleerd, en krijg je heel andere resultaten als je dat aanpast. De Randstad-intercedenten zijn getraind op het herkennen van discriminatie. En die trainingen kregen ze al ver voor we met deze algoritmes werkten. Ook toen was het belangrijk dat de medewerkers vermoedens van discriminatie konden herkennen, bijvoorbeeld in de aanwijzingen die werkgevers gaven voor het opstellen van vacatures. Overigens is het computersysteem nog altijd slechts een van de middelen die intercedenten gebruiken om werkzoekenden te koppelen aan een vacature. Ook als er met de selectie van het algoritme niets mis lijkt te zijn, kijken intercedenten vrijwel altijd zelf in de database of er niet toch ook nog andere geschikte kandidaten zijn. Of ze zoeken bijvoorbeeld via LinkedIn naar de juiste match. We zullen nooit alleen van het AI-systeem gebruik maken.’
Wetsvoorstellen
Dat de Randstad-medewerkers getraind zijn in het herkennen van mogelijke discriminatie bij de aanwijzingen van werkgevers, kan ook goed van pas komen nu er nieuwe wetgeving in de maak is die ook gaat gelden voor de uitzendbranche. Minister Karien van Gennip (Sociale Zaken en Werkgelegenheid) wil die invoeren om ongelijke behandeling binnen werving en selectie uit te bannen. Een van de voorstellen in die wet is dat uitzendbureaus melding moeten maken als werkgevers – ook nadat het uitzendbureau hen daarop heeft gewezen – blijven volharden in een discriminerend verzoek.
Uitzendbranchevereniging ABU is kritisch over het voorstel. Ook Joke de Groot vraagt zich af of die meldplicht de oplossing is om discriminatie tegen te gaan. ‘Vaak passen werkgevers zelf al hun verzoek aan als we hen wijzen op de mogelijke discriminatie.’
Zou die wetgeving niet ook kunnen zorgen voor een gelijk speelveld? Waar Randstad al stappen heeft genomen om discriminatie tegen te gaan, worden andere uitzendbureaus en intermediairs daar nu ook toe gedwongen. ‘In zijn algemeenheid juich ik het toe dat de wetten die discriminatie in de branche tegen gaan strenger worden’, zegt De Groot. ‘En ik ben blij dat het wetsvoorstel niet alleen voor de uitzendbranche zal gelden. Ik zou daarom ook eigenlijk wensen dat die meldplicht helemaal niet nodig is, omdat elk bedrijf op zijn verantwoordelijkheid zal worden aangesproken.’
Graus vertelt in dit kader over de AI-Verordening: deze Europese wetgeving is in de maak en zal specifieke eisen gaan stellen aan de ontwikkeling en het gebruik van kunstmatige intelligentie, onder andere wanneer die wordt ingezet bij werving en selectie. Al maanden wordt daar flink over gediscussieerd. ‘Net als bij dat Nederlandse wetsvoorstel juichen we ook hier toe dat er strengere regels komen’, zegt Graus. ‘Maar de vraag is of die wetgeving ook werkbaar zal zijn. Neem de mogelijke verplichting om alleen waterdichte algoritmes te gebruiken die zeker geen vooroordelen hebben. Dat kunnen we nooit garanderen. Alleen al omdat we niet eens kunnen testen of het systeem misschien wel mensen discrimineert op basis van de gronden die we niet mogen registreren. Maar dat wil zeker niet zeggen dat het systeem beter werkt dan de oude analoge manier van werven en selecteren.’
Mens en machine
Want uiteindelijk was het oude mensenwerk zeker ook niet vrij van vooroordelen of andere kwalen, vervolgt hij. Integendeel. Daar heb je juist te maken met iemands persoonlijke vooringenomenheid, humeur, of vermoeidheid. Algoritmes zijn op vrijdagmiddag even scherp als de rest van de week.
Zitten daar dan niet toch nog kansen voor in de toekomst? Dat er uiteindelijk toch een systeem gemaakt kan worden zonder vooroordelen dat volkomen eerlijk de profielen van werkzoekenden kan selecteren? ‘Nee’, zegt Graus resoluut. ‘Dat is gewoon onmogelijk. En dat heeft vooral te maken met de data die we erin stoppen, daar zitten de vooroordelen in. Het is een utopie om te denken dat je die data helemaal schoon kunt krijgen. Het gaat er vooral om hoe je met die data omgaat. Want uiteindelijk zijn algoritmes ondersteunend. Ze zullen ons werk nooit helemaal overnemen. Mensen zullen altijd moeten bijsturen en waar nodig het systeem moeten aanpassen. Het gaat erom hoe we balans kunnen vinden tussen mens en machine. En hoe die twee elkaar daarin kunnen versterken.’
Interview en tekst: Arend Hulshof
Dit interview is bedoeld om een inkijkje te geven in de realiteit van bedrijven. Hoe is het voor hen om algoritmes in te zetten? Houden zij rekening met mensenrechten? En zo ja hoe? Dit interview bevat geen oordeel van het College over de algoritmes die Randstad inzet.'