HR-Tech-Tools: Gefahr für Diversität in Unternehmen Firmen setzen vermehrt auf technische Lösungen im Personalbereich. Das Risiko: Diese treffen oft diskriminierende Entscheidungen.
Firmen setzen vermehrt auf technische Lösungen im Personalbereich. Das Risiko: Diese treffen oft diskriminierende Entscheidungen.
Die Digitalisierung des Personalbereichs schreitet schnell voran. So genannte «HR-Tech»-Lösungen schiessen zurzeit wie Pilze aus dem Boden. Unternehmen nutzen diese aus verschiedenen Gründen; z. B. zur effizienteren Handhabung von Personaldossiers, für schnellere Feedback-Loops mit Angestellten, zur Früherkennung von Unzufriedenheit bei den Mitarbeitenden, für Gesundheitschecks etc. Oft ist auch künstliche Intelligenz im Spiel, welche die Human-Resources- (HR-)Fachleute dabei unterstützen soll, effizienter und effektiver in einem Markt mit Fachkräftemangel vorzugehen.
Viele dieser Tools treffen sogar selbst Entscheidungen – im Namen der Firma. Gewisse «Applicant Tracking Systems» machen die Vorselektion der Lebensläufe; andere interpretieren Gesichtszüge beim ersten Online-Interview, um über den Charakter der Person Schlüsse zu ziehen; wiederum andere bestimmen über das Zusammenpassen zwischen den Kandidierenden und der Firmenkultur aufgrund von Online-Tests. Auf künstlicher Intelligenz basierende Algorithmen nehmen den Personalfachpersonen die mühselige Entscheidungsarbeit ab.
HR-Tech-Lösungen, die diskriminieren
Leider sind solche Tools ein zweischneidiges Schwert. Denn sie können auch äusserst negative Auswirkungen haben. Dazu zwei Beispiele:
Der Fall Amazon: Der Online-Versandhändler entschloss sich 2014, einen auf künstlicher Intelligenz basierten Algorithmus zu entwickeln, der es schafft, aus einer grossen Anzahl von Lebensläufen, eine Vorselektion zu treffen. Die Idee war, dass z. B. aus 100 Lebensläufen die Top-5 automatisiert ausgewählt werden. Diese Personen würden dann zum Interview eingeladen. Ein Jahr später realisierte das Team, dass die Auswahl vom Algorithmus wider Erwarten nicht neutral vollzogen wird. Weibliche Talente wurden in der Auswahl diskriminiert; sie wurden nicht zu Interviews vorgeschlagen.
Was war geschehen? Die Datenmodelle wurden mit Lebensläufen trainiert, die in den vergangenen zehn Jahren bei Amazon eingegangen waren. Daraus lernte der Algorithmus – einfach gesagt -, dass alles «weibliche» negativ ist und daher nicht fürs Interview vorgeschlagen werden sollte. Denn: Die eingegangen Lebensläufe waren zu einem grossen Teil Lebensläufe von männlichen Kandidaten. Wörter wie «women’s» oder «female» wurden vom Algorithmus als negativ eingeschätzt, denn sie kamen nur bei wenigen Dossiers vor. Wurde also ein Dossier von einer Kandidatin durch den Algorithmus geprüft und auf dem Lebenslauf stand z. B. «President of the Women’s Chess Club» oder «Degree of the Female College Minnesota», entschied das Tool, dass die Kandidatin für eine Einstellung nicht geeignet war.
Der Fall HireVue: 600 Firmen wie Nike und Unilever nutzen HireVue – ein Tool, das Bewerbende über Videoanalyse nach verbalen und nonverbalen Hinweisen bewertet. Leider ist aber auch dieses Tool nicht neutral: Es bekundet Mühe, verbale oder nonverbale Merkmale von Menschen mit dunkler Hautfarbe oder Frauen zu interpretieren und bewertet diese dadurch schlechter.
Künstliche Intelligenz wird zwar für die Effizienzsteigerung eingesetzt, hat aber unbeabsichtigt negative Auswirkungen. Einerseits werden Menschen mit diversem Hintergrund benachteiligt, andererseits verunmöglicht es Unternehmen, auch diverse Talente zu rekrutieren.
Unbewusste Voreingenommenheit – für HR-Tech verhängnisvoll
Dass Datenmodelle solche verhängnisvollen Entscheidungen treffen, kommt nicht von ungefähr. Datenmodelle werden von Menschen entwickelt und lernen von Daten, die im Internet verfügbar sind. Beide – Menschen und Daten – sind nicht neutral, sie sind geprägt von unbewusster Voreingenommenheit (Englisch: unconscious bias). Doch was ist damit gemeint?
Laut Wikipedia handelt es sich dabei um «ein systematisches Muster der Abweichung von der Rationalität bei der Beurteilung. Dies kann zu Wahrnehmungsverzerrungen oder unlogischen Interpretationen führen.» Mit anderen Worten: Als Menschen ergreifen wir unbewusst Partei für oder gegen eine Sache, eine Person oder eine Gruppe, wenn wir unsere Umgebung interpretieren. Wir schaffen unsere eigene subjektive Realität, die auf Mustern beruht, die wir im Laufe unseres Lebens gelernt haben. Und daraus leiten wir unsere Verhaltensweisen ab.
Da Datenmodelle durch Menschen entwickelt werden und von Daten lernen, die durch Menschen geschaffen wurden, werden auch sie Opfer von unbewusster Voreingenommenheit. Es ist sogar noch schlimmer: Sie verstärken diese, da sie in sehr kurzer Zeit sehr viele Daten interpretieren und damit die von Vorurteilen durchsetzten Muster systematischer zur Anwendung kommen. Für Talente mit diversem Hintergrund und für die Unternehmen selbst ist dies verhängnisvoll. So werden kompetente, aber für das Unternehmen «untypische» Kandidatinnen und Kandidaten aussortiert oder Talente aus unterrepräsentierten Gruppen werden vom Tool nicht zur Beförderung vorgeschlagen. Diversitätsziele, die sich das Unternehmen vorgenommen hat, können nicht erreicht werden.
Massnahmen, um Fairness in Personalprozessen herzustellen
Was können wir also tun? Die folgenden Massnahmen basieren auf drei Aktionsebenen: Mensch, Organisation und Technologie. Denn um die negativen Auswirkungen von unbewusster Voreingenommenheit umgehen zu können, braucht es eine ganzheitliche Herangehensweise:
Als Menschen und HR-Verantwortliche müssen wir uns weiterbilden: Wir müssen lernen, was unbewusste Voreingenommenheit ist und wie sie sich in Personalprozessen auswirkt.
Als HR-Verantwortliche müssen wir lernen zuzuhören: Wir sollten aufhorchen, wenn Talente aus unterrepräsentierten Gruppen von Unfairness erzählen im Rekrutierungs- oder Beförderungsprozess. Oft sind es auch nur Vermutungen, da die Ungerechtigkeiten ja unbewusst passieren. Aber auch diesen Vermutungen sollte nachgegangen werden.
Organisationen sollten bei der Auswahl von HR-Tech-Lösungen genauer hinschauen. Sie können bei den Lieferanten nachfragen, wie die Datenmodelle entwickelt wurden und nach welchen ethischen Prinzipien.
Organisationen sollten die HR-Tech-Lösungen auf Voreingenommenheit testen, bevor sie sie erwerben. Lassen Sie unterrepräsentierte Gruppen die Lösungen ausprobieren und messen sie die Resultate.
Lieferanten, die HR-Tech-Lösungen entwickeln, müssen Teams aufweisen können, die divers aufgestellt sind. In solchen Teams wird ein Produkt aus verschiedenen Perspektiven entwickelt und getestet. Auch wenn ein diverses Team nicht Garant für die Absenz von Voreingenommenheit ist, so schwächt sie diese auf jeden Fall ab.
Lieferanten müssen die Daten, die zum Training der künstlichen Intelligenz genutzt werden sollen, säubern, so dass sie möglichst neutral sind.
Organisationen sollten HR-Tech-Lösungen wählen, die explizit ausgerichtet sind auf die Eliminierung von Voreingenommenheit.
Diversitätsziele erreichen mit fairen HR-Tech-Lösungen
Diversität und Inklusion sind bei den HR-Abteilungen in aller Munde. Und trotzdem schaffen es viele Unternehmen nur schwer, sich divers aufzustellen. Hier gilt dieselbe Regel wie in anderen Geschäftsbereichen: Ziele können nur erreicht werden, wenn sie explizit definiert sind und Investitionen in Massnahmen getätigt werden, um diese Ziele zu erreichen.
Unternehmen müssen also zuerst konkrete und messbare Ziele bezüglich Diversität definieren. Und danach die Massnahmen bestimmen, die sie zum Ziel bringt. HR-Tech-Lösungen können Unternehmen dabei unterstützen, aber es gilt ein ganz genaues Auge darauf zu richten, dass sich ein gekauftes Tool nicht plötzlich kontraproduktiv auswirkt. Um Diversitätsziele zu erreichen, sollten HR-Tech-Lösungen angeschafft werden, die den klaren Fokus haben, Unvoreingenommenheit und Diskriminierung auszuschalten.
«topsoft Fachmagazin»
Die Quelle
Business Software ist ein weitläufiges Feld, es ist nicht einfach, dort die Übersicht zu behalten. Doch hier hilft das «topsoft Fachmagazin» schon seit neun Jahren. Gerade wenn Sie in einer IT-Abteilung arbeiten, sich beruflich mit Informatik auseinandersetzen oder auch auf der Suche nach neuem Know-how sind, ist das «topsoft Fachmagazin» beinahe schon eine Pflichtlektüre. Und das Beste: Sie können es gratis abonnieren.
Die Autorin
Nadia Fischer hat ursprünglich Internationale Beziehungen in Genf studiert, wechselte dann aber in die Tech-Branche, weil sie auf der Suche nach Innovation und dynamischen Entwicklungen war. Da sie Diversität in der Tech-Branche vermisste, hat Nadia das Tech-Startup Witty Works mitgegründet. Witty Works entwickelt eine KI-basierte Software – diversifier.witty.works. Der Diversifier revolutioniert, wie wir in Europa schreiben, um uns hin zu einer inklusiven Wirtschaft und Gesellschaft zu entwickeln.