Algorithmen können besser als Menschen diskriminierungsfreie Recruiting-Entscheidungen treffen. Diese Vision steht am Anfang des Forschungsprojekts "FAIR" – Fair Artificial Intelligence Recruiting. Ein Gespräch mit Initiator Dr. Philipp Karl Seegers, Geschäftsführer des HR-Tech-Unternehmens candidate select.
Der Name, die Herkunft, das Geschlecht des Bewerbers – schon mit diesen wenigen Informationen erstellt unser Gehirn ein Bild eines Kandidaten. Das kann starke Auswirkungen auf die
Entscheidung im Auswahlprozess haben. Diskriminierungsfreies Recruiting verfolgt das Ziel, solche kognitiven Verzerrungen menschlicher Entscheidungen bei der Personalauswahl zu neutralisieren, um keinen zu benachteiligen. Es geht im Kern um die Fragen: Wie übersehe ich niemanden? Wie vermeide ich es, den falschen Bewerber einzustellen?
"Unser Ziel ist es, den Arbeitsmarkt diskriminierungsfreier zu machen", sagt Dr. Philipp Karl Seegers, Geschäftsführer von candidate select GmbH (CASE). Er hat nach seiner Promotion in Volkswirtschaftslehre zusammen mit den Mitbegründern seines Unternehmens einen
Algorithmus entwickelt, mit dem akademische Abschlüsse auf Basis großer Datensätze verglichen werden können. Inzwischen berücksichtigt der Algorithmus auch ausländische und nicht-akademische Abschlüsse.
Mit KI Diskriminierung im Recruiting abbauen
Aktuell arbeitet sein Unternehmen gemeinsam mit der Universität Köln an dem Forschungsprojekt
FAIR.
Die Abkürzung steht für "Fair Artificial Intelligence Recruiting". Ziel ist es, anhand von Algorithmen Diskriminierungsfaktoren im Recruiting systematisch zu erkennen und zu beseitigen. "Algorithmen sind per se neutraler als Menschen und diesen Vorteil wollen wir fürs Recruiting nutzen." Informationen wie Bildung, berufliche Erfahrung, außeruniversitäres und soziales Engagement, aber auch Fähigkeiten, wie das Beherrschen bestimmter Programmiersprachen oder Sprachkenntnisse fließen in den Algorithmus ein. Ein speziell entwickelter Index macht zudem Diskriminierungsneigungen von Algorithmen und Menschen in Bewerbungsprozessen messbar. Fotos werden in dem Screening nicht berücksichtigt, um eine Beeinflussung durch das Aussehen, Geschlecht und Herkunft des Bewerbers zu vermeiden. "Und im Gegensatz zum Menschen kann man bei einem Algorithmus auch sicherstellen, dass er ein eventuell auf dem Lebenslauf befindliches Foto wirklich ignoriert." Algorithmen könnten zudem besser als Menschen fehlerhafte oder manipulierte Angaben identifizieren. Außerdem treffen sie ihre Entscheidungen unabhängig von Stress oder Müdigkeit.
Fair Artificial Intelligence Recruiting
[caption id="attachment_24945" align="alignleft" width="200"]
© Screenshot[/caption]
Die Vision: Mit einem Kontrollmechanismus sollen Algorithmen
Diskriminierung messbar machen. Außerdem sollen sie Lebensläufe fair und zuverlässig vorauswählen. Bei der Optimierung und Validierung dieser Algorithmen unterstützen die assoziierten Partner Deutsche Telekom, Studitemps, Simon Kucher & Partners und Viega das Projekt. Das Forschungsvorhaben wird mit einem Gesamtvolumen von rund einer Million Euro im Zeitraum vom 01.01.2020 bis zum 31.12.2021 durchgeführt und mit
Fördermitteln der europäischen Kommission und des Landes Nordrhein-Westfalen unterstützt.
Unbewusste Verzerrungen beim Lebenslauf-Screening
Warum ist diskriminierungsfreies Recuriting für Personaler so wichtig? "Zusätzlich zu der
ethischen und moralischen Dimension verursacht Diskriminierung im Recruiting, simpel gesagt,
betriebswirtschaftliche Kosten“, so Dr. Philipp Karl Seegers. Zwar sei in den letzten Jahren einiges erreicht worden, beispielsweise entwickeln viele Unternehmen Pläne, wie sie ihre Personalarbeit verändern wollen, doch die Forschung auf dem Gebiet zeige: Die
Benachteiligungen bestimmter Gruppen bestehen weiterhin. "Wichtig hierbei ist, die meisten Personaler wollen gar nicht diskriminieren. Es handelt sich oft um eher unterbewusste Verzerrungen, weshalb Diskriminierung in frühen Prozessschritten wie dem
Lebenslauf-Screening stärker auftritt als zum Beispiel im
Interview."
Und was ist mit dem „Bauchgefühl“ und der Erfahrung eines Personalverantwortlichen, zählen die beim diskriminierungsfreien Recruiting künftig nicht mehr? "Menschen sind sehr gut darin, Dinge wie
Sympathie schnell einzuschätzen, das können Algorithmen nicht. Allerdings haben wir ja in vielen Situationen HR-Verantwortliche, die die Bewerberinnen und Bewerber zwar auswählen, später aber gar nicht mit diesen zusammenarbeiten. Und unser Bauchgefühl beschreibt ja oft etwas, das ich gar nicht genau erklären kann." Infolge dessen komme es zu den kognitiven Verzerrungen bei der Entscheidung. Hier kann die Technik dabei helfen, vorauszuwählen, zu sortieren und zu beraten. "Aber das bedeutet nicht, dass in der Zukunft Recruiterinnen und Recruiter nicht mehr gebraucht werden. Die letzte Entscheidungsinstanz soll beim Menschen liegen."