Vorig jaar schrapte Amazon zijn machine learning-algoritme omdat het een groot probleem ontdekte: de kunstmatige intelligentie had een voorkeur voor mannen. De machine learning-tool was ontworpen om cv's te analyseren en potentiële sollicitanten te vergelijken met het huidige personeelsbestand van Amazon. Het algoritme was ontworpen om uit 100 cv's de vijf beste sollicitanten te selecteren.
Het probleem was dat er al een bestaande genderkloof bestond in softwareontwikkelaars en andere technische functies. Toen de kunstmatige intelligentietool de patronen in het wervingsbeleid van Amazon over de afgelopen tien jaar analyseerde, leerde het zichzelf daarom om mannen te verkiezen boven vrouwen. Amazon heeft de tool uiteindelijk buiten gebruik gesteld.
De kunstmatige intelligentie van Amazon wijst op een belangrijke beperking van machine learning-tools: de tools zijn slechts zo goed als de informatie die ze krijgen. Hoewel kunstmatige intelligentie potentiële sollicitanten snel en efficiënt kan screenen, kunnen dergelijke algoritmen onbedoeld discriminatie bij wervingspraktijken versterken. In het geval van Amazon waren technische sollicitanten vaker mannen dan vrouwen. Het algoritme interpreteerde deze genderkloof ten onrechte als een voorkeur van Amazon bij het aannemen van personeel. In plaats van gekwalificeerde vrouwen naar voren te halen, sloeg het algoritme dergelijke kandidaten dus over.
Werkgevers beschikken tegenwoordig over een breed scala aan technologische hulpmiddelen. Websites zoals Monster.com en Indeed.com adverteren met vacatures en genereren grote aantallen sollicitanten. Werkgevers maken steeds vaker gebruik van technologische hulpmiddelen om de tijd en kosten van het wervingsproces te verminderen. Dergelijke technologische hulpmiddelen zijn echter ontworpen om menselijke besluitvorming na te bootsen. Wanneer de tool echter gebaseerd is op onnauwkeurige of bevooroordeelde gegevens, kan deze onbedoeld leiden tot discriminatie van vrouwen of minderheden. Studies hebben ook aangetoond dat technologische hulpmiddelen ook op subtielere manieren kunnen discrimineren. Een werkgever die bijvoorbeeld het dienstverband wilde maximaliseren, ontdekte dat werknemers die dichter bij het werk woonden, doorgaans langer in dienst bleven. Het screenen van sollicitanten op basis van de afstand tussen hun woonplaats en het werk leidde echter tot een onevenredig grote uitsluiting van bepaalde minderheidsgroepen.
Op grond van Titel VII van de Civil Rights Act van 1964 en analoge staats- en lokale wetten is de werkgever verantwoordelijk voor het waarborgen dat sollicitanten op een niet-discriminerende manier worden gescreend. Als u dus een technologisch hulpmiddel gebruikt of overweegt te gebruiken om sollicitanten te screenen, moet u maatregelen nemen om ervoor te zorgen dat dergelijke hulpmiddelen kandidaten niet onevenredig uitsluiten op basis van geslacht, ras of andere beschermde categorieën. Het is wellicht niet voldoende om technologische hulpmiddelen simpelweg te vertellen dat ze minderheden of vrouwen niet mogen discrimineren, omdat dergelijke hulpmiddelen zullen proberen kandidaten te identificeren die aansluiten bij uw bestaande wervingspraktijken. Enkele nuttige tips om rekening mee te houden bij het gebruik van technologische wervingshulpmiddelen zijn:
- Vertrouw niet uitsluitend op technologische wervingsinstrumenten. De meeste instrumenten rangschikken kandidaten. Werkgevers moeten kandidaten met een lagere rangschikking beoordelen en onafhankelijke beoordelingen maken op basis van niet-discriminerende criteria.
- Controleer en actualiseer regelmatig de gegevens die aan uw wervingsinstrument worden verstrekt. Zorg ervoor dat de gegevens waarop uw wervingsinstrument is gebaseerd, geen discriminerende wervingspraktijken weerspiegelen.
- Controleer onafhankelijk de resultaten en ranglijsten die door de wervingstool worden gegenereerd en breng indien nodig de nodige aanpassingen aan.
Na verloop van tijd zullen deze op technologie gebaseerde wervingsinstrumenten waarschijnlijk verbeteren en hopelijk sollicitanten screenen zonder enige vorm van discriminatie. Maar totdat de technologie geperfectioneerd is, moeten werkgevers maatregelen nemen om ervoor te zorgen dat leden van beschermde groepen niet onevenredig worden gescreend door het gebruik van op technologie gebaseerde wervingsalgoritmen.