Im vergangenen Jahr hat Amazon seinen Algorithmus für maschinelles Lernen verworfen, weil man ein großes Problem entdeckt hatte: Die künstliche Intelligenz mochte keine Frauen. Das maschinelle Lernwerkzeug war dafür konzipiert worden, Lebensläufe zu analysieren und potenzielle Bewerber mit den derzeitigen Mitarbeitern von Amazon zu vergleichen. Der Algorithmus sollte 100 Lebensläufe auswerten und die fünf besten Bewerber herausfiltern.
Das Problem war, dass es bereits zuvor eine geschlechtsspezifische Kluft bei Softwareentwicklern und anderen technischen Positionen gab. Als das KI-Tool die Muster der Einstellungspraktiken von Amazon in den letzten zehn Jahren analysierte, lernte es daher, Männer gegenüber Frauen zu bevorzugen. Amazon hat das Tool schließlich abgeschafft.
Die künstliche Intelligenz von Amazon verdeutlicht eine wichtige Einschränkung maschineller Lernwerkzeuge: Die Werkzeuge sind nur so gut wie die Informationen, die ihnen zur Verfügung gestellt werden. Künstliche Intelligenz kann potenzielle Bewerber zwar schnell und effizient überprüfen, doch solche Algorithmen können unbeabsichtigt Diskriminierung bei Einstellungsverfahren verstärken. Im Fall von Amazon waren die Bewerber für technische Stellen eher männlich als weiblich. Der Algorithmus interpretierte diese Geschlechterkluft fälschlicherweise als Einstellungspräferenz von Amazon. Anstatt qualifizierte Frauen hervorzuheben, filterte der Algorithmus solche Kandidatinnen daher heraus.
Arbeitgeber verfügen heutzutage über eine Vielzahl von technologiebasierten Tools. Websites wie Monster.com und Indeed.com veröffentlichen Stellenangebote und generieren eine große Anzahl von Bewerbern. Arbeitgeber greifen auf technologiebasierte Tools zurück, um die Zeit und die Kosten für die Einstellung neuer Mitarbeiter zu reduzieren. Solche technologiebasierten Tools sind jedoch darauf ausgelegt, menschliche Entscheidungsprozesse nachzuahmen. Wenn das Tool also auf ungenauen oder voreingenommenen Daten basiert, kann es unbeabsichtigt Frauen oder Minderheiten diskriminieren. Studien haben auch gezeigt, dass technologiebasierte Tools auch auf subtilere Weise diskriminieren können. Ein Arbeitgeber, der versuchte, die Beschäftigungsdauer zu maximieren, stellte beispielsweise fest, dass diejenigen, die näher am Arbeitsplatz wohnten, tendenziell länger im Unternehmen blieben. Die Auswahl von Bewerbern anhand der Entfernung ihres Wohnorts zum Arbeitsplatz führte jedoch dazu, dass bestimmte Minderheitenkandidaten überproportional oft aussortiert wurden.
Gemäß Titel VII des Civil Rights Act von 1964 und analogen staatlichen und lokalen Gesetzen ist der Arbeitgeber dafür verantwortlich, dass Bewerber auf nichtdiskriminierende Weise geprüft werden. Wenn Sie also ein technologiebasiertes Tool zur Überprüfung von Bewerbern einsetzen oder in Betracht ziehen, sollten Sie Maßnahmen ergreifen, um sicherzustellen, dass solche Tools Bewerber nicht unverhältnismäßig aufgrund ihres Geschlechts, ihrer ethnischen Zugehörigkeit oder anderer geschützter Merkmale aussortieren. Es reicht möglicherweise nicht aus, technologiebasierten Tools einfach zu sagen, dass sie Minderheiten oder Frauen nicht diskriminieren sollen, da solche Tools versuchen werden, Bewerber zu identifizieren, die Ihre bestehenden Einstellungspraktiken widerspiegeln. Hier sind einige hilfreiche Tipps, die Sie bei der Verwendung technologiebasierter Einstellungstools beachten sollten:
- Verlassen Sie sich nicht ausschließlich auf technologiebasierte Einstellungsinstrumente. Die meisten Instrumente erstellen eine Rangliste der Bewerber. Arbeitgeber sollten auch Bewerber mit niedrigerem Rang prüfen und unabhängige Bewertungen auf der Grundlage nichtdiskriminierender Kriterien vornehmen.
- Überprüfen und aktualisieren Sie regelmäßig die Daten, die Sie in Ihr Einstellungstool eingeben. Stellen Sie sicher, dass die Daten, auf die sich Ihr Einstellungstool stützt, keine diskriminierenden Einstellungspraktiken widerspiegeln.
- Überprüfen Sie die vom Einstellungstool generierten Ergebnisse und Ranglisten unabhängig und nehmen Sie gegebenenfalls entsprechende Anpassungen vor.
Mit der Zeit werden sich diese technologiebasierten Einstellungsinstrumente wahrscheinlich verbessern und hoffentlich Bewerber ohne diskriminierende Vorurteile auswählen. Bis die Technologie jedoch ausgereift ist, sollten Arbeitgeber Maßnahmen ergreifen, um sicherzustellen, dass Angehörige geschützter Gruppen nicht durch den Einsatz technologiebasierter Einstellungsalgorithmen unverhältnismäßig stark benachteiligt werden.