2018 war AmazonKünstliche Intelligenz zur Überprüfung von Lebensläufen ein Paradebeispiel für Gender Bias in KI-Systemen. Ähnliches können wir auch bei dem geplanten Algorithmus des österreichischen Arbeitsmarktservice AMSbeobachten, welcher gewisse Personengruppen diskriminieren soll. Auch wenn solche Systeme nur unterstützend arbeiten sollen, so werfen sie doch Fragen und criticismauf, besonders in Bezug auf Gender Bias.
Beeinträchtigte Wahrnehmung im Sourcing.
Gender Bias, oder auch geschlechtsbezogener Verzerrungseffekt, beschreibt die Beeinträchtigung von Wissen und Wahrnehmung und somit die Beeinflussung von Forschungsergebnissen oder Daten. Er kann in vielen Bereichen auftreten und schließt sowohl die Erforschung vorrangig Männer betreffender Probleme, das Ignorieren von sozialem oder biologischem Geschlecht, als auch die unterschiedliche Beurteilung gleicher Verhaltensweisen oder Eigenschaften von Frauen und Männern ein.
Dabei spielt diese Art von Bias gerade im HR-Bereich eine große Rolle. In unserem letzten Post haben wir unter anderem über ATS, Applicant Tracking Systeme, gesprochen. Auch dort wird verstärkt auf algorithmische Unterstützung zurückgegriffen und die Abwesenheit von Gender Bias kann nicht garantiert werden. Wir haben uns in diesem Zusammenhang einige Fragen gestellt:
Sollte es Algorithmen erlaubt sein, über Berufschancen verschiedener Bevölkerungsgruppen zu entscheiden? Kann eine Neutralität bei dieser Entscheidungsfindung garantiert werden, um den Gender Bias zu eliminieren? Und welche Schritte können unternommen werden, um dies zu erreichen?
Diesen und noch weiteren Fragen zum Thema Algorithmen in der Personalauswahl gehen wir in diesem Blogpost nach.
Spricht man von Künstlicher Intelligenz (KI), wird oft auch der Begriff Machine Learning gleichgestellt. Dabei bezeichnet man Machine Learning als Teilbereich der Technologie rund um Künstliche Intelligenz. Es beschreibt die Fähigkeit von Algorithmen, basierend auf Trainingsdaten Entscheidungen zu treffen und Zusammenhänge zu erschließen.
Wie können diese Trainingsdaten aussehen? Sie müssen themenbezogen und relevant sein. Bei Amazon handelte es sich um eine Sammlung von Lebensläufen, um eine Überprüfung und Vorselektierung dieser zu automatisieren. Die mangelnde Diversität der Trainingsdaten hat sich hauptsächlich auf die Bewerberinnen ausgewirkt, da weibliche Begriffe und Namen als nicht relevant eingestuft wurden. Die Daten waren also themenbezogen und relevant, jedoch nicht ausreichend, um ein allumfassendes und inklusives Trainingsprofil zu erstellen.
Hinzu kommt, dass ein Algorithmus in der Basis immer von Menschen geschrieben wurde, und somit nicht unfehlbar sein kann. Stimmt das?
Kognitive Verzerrung: Stereotyping.
Tatsächlich ist das menschliche Gehirn anfällig für Fehler - besonders, da viele Entscheidungen und Vorgänge unbewusst und automatisiert ablaufen. HR today spricht von sogenannten kognitiven Verzerrungen. Hier ist zum einen das Stereotyping zu nennen. Wir müssen oft sehr schnell entscheiden, ob eine Person, die wir neu kennenlernen, vertrauenswürdig erscheint oder nicht. Unbewusst kann dies auch in Algorithmen vorkommen - Amazon ist hier ein gutes Beispiel: als bekannt wurde, dass Bewerber bevorzugt gegenüber Bewerberinnen behandelt werden, wurde die Berücksichtigung des Geschlechtes aus dem Algorithmus genommen. Frauen wurden dennoch häufiger ausgeschlossen, da der Algorithmus trotzdem auf “typisch weibliche” Freizeitbeschäftigungen oder reine Mädchenschulen reagierte und diese Lebensläufe entsprechend herausfilterte.
Über Gehalt und Selbstwahrnehmung.
Sieht man sich die Bewerberinnenseite an, so entnehmen wir folgende Meinungen:
Frauen geben bei ihren Gehaltsvorstellungen teilweise ein geringeres Gehalt als Männer an.
Würde man eine KI auf diese Trainingsdaten trainieren, so könnten Frauen tendenziell niedriger bezahlte Jobs vorgeschlagen werden, obwohl sie die gleiche Leistung erbringen würden.
Bedeutet dies also, dass Frauen sich grundsätzlich weniger zutrauen? Eine wissenschaftliche Studie über Stellenanzeigen auf sozialen Netzwerken fand heraus, dass Frauen seltener auf bestimmte Anzeigen klicken als Männer. Dies kann verschiedene Ursachen haben, sagt PersobloggerTeilweise wird nach “Programmierern” gesucht und Frauen fühlen sich mitunter gar nicht erst angesprochen. Durch weitere Kriterien, wie unflexible Arbeitszeiten, können Mütter indirekt ausgeschlossen werden.
Faire Entscheidungen ohne Machine Learning.
Unser Algorithmus nutzt kein Machine Learning zur Weiterentwicklung. Denn wir sind uns bewusst, dass genau dies zu ungewolltem Gender Bias führen kann. Wie genau wir dem entgegenwirken, haben wir gemeinsam mit unserem Algorithmus-Experten und Co-founder Dr. Stefan Frehse, der ebenso für das Deutsche Forschungszentrum für Künstliche Intelligenzberatend tätig ist, genauer erklärt.
Der matched.io Algorithmus vergleicht die von Entwickler:innen getätigten Eingaben mit den Job-Angaben der Unternehmen. Innerhalb von 3 Sekunden erstellt der Algorithmus eine Vorauswahl an passenden Vorschlägen für Unternehmen und Kandidat:innen. Dabei wird jedes Profil in verschiedene Bereiche aufgeteilt, welche unterschiedliche Gewichtung bekommen.
Da unsere Founder langjährige Erfahrung in den Bereichen der Softwareentwicklung und Personalberatung haben, können wir dieses Wissen einbringen.
Wir suchen die individuell passende Lösung.
Wir schauen uns jede:n Nutzer:in als Individuum an. Die Ausspielung der Vorschläge erfolgt zufällig, um einen Bias auszuschließen. Nach dem Ablehnen eines Vorschlags kann jede Partei Feedback geben. Waren die Gehaltsvorstellungen zu hoch oder das Angebot zu niedrig? Passt die Unternehmenskultur doch nicht? Oder gibt es eine andere Vorstellung zum Einsatz von Skills und Technologien? Dieses Feedback berücksichtigt unser Algorithmus und kann so Entwickler:innen und Unternehmen besser kennenlernen und verstehen. Dadurch werden die Vorschläge immer passender. Wichtig: Bei dem Feedback handelt es sich nicht um Trainingsdaten, sondern um individuell berücksichtigte Antworten, um die Berechnungen des Algorithmus noch akkurater zu gestalten. Das Feedback wird, anders als Trainingsdaten, nicht auf alle User angewandt, sondern nur in Bezug auf Feedbackgeber.
Wir leben eine Kultur ohne Gender Bias und arbeiten tagtäglich daran, dies auch weiterhin in unserem Produkt sicherzustellen.
Technisches Recruiting, das inklusiv ist.
Für den Einsatz von Algorithmen in der Personalauswahl ist es also wichtig, dass vom Computer getätigte Entscheidungen kontinuierlich hinterfragt werden. Ungleichheiten müssen entdeckt und sofort entfernt werden. Das ist die Basis von matched.io, weshalb wir ständig an der Weiterentwicklung unseres Algorithmus arbeiten. Stefan hat uns bereits etwas über die nächste große Veränderung erzählt. Der matched.io Algorithmus wird in Zukunft in der Lage sein, basierend auf den angegebenen Skills, Vorschläge zum marktgerechten Gehalt, zu gefragten Tech-Skills sowie zur persönlichen Weiterentwicklung zu geben. So bringen wir Entwickler:innen und Unternehmen noch intelligenter zusammen.
Wir sehen dies als weiteren Schritt, die Welt des technischen Recruitings zu verbessern und ein Stück inklusiver zu machen.