{"id":1271,"date":"2020-11-18T13:22:00","date_gmt":"2020-11-18T13:22:00","guid":{"rendered":"https:\/\/matched.io\/?p=1271"},"modified":"2023-02-10T10:00:29","modified_gmt":"2023-02-10T09:00:29","slug":"__trashed","status":"publish","type":"post","link":"https:\/\/matched.io\/de\/__trashed\/","title":{"rendered":"Algorithms in recruiting &#8211; how to prevent gender bias."},"content":{"rendered":"<p id=\"viewer-e9qe4\">2018 war <a href=\"https:\/\/www.heise.de\/newsticker\/meldung\/Amazon-KI-zur-Bewerbungspruefung-benachteiligte-Frauen-4189356.html\" target=\"_blank\" rel=\"noreferrer noopener\"><u>Amazon<\/u><\/a>K\u00fcnstliche Intelligenz zur \u00dcberpr\u00fcfung von Lebensl\u00e4ufen ein Paradebeispiel f\u00fcr Gender Bias in KI-Systemen. \u00c4hnliches k\u00f6nnen wir auch bei dem geplanten Algorithmus des \u00f6sterreichischen Arbeitsmarktservice <a href=\"https:\/\/netzpolitik.org\/2020\/oesterreich-ams-datenschutzbehoerde-stoppt-jobcenter-algorithmus\/\" target=\"_blank\" rel=\"noreferrer noopener\"><u>AMS<\/u><\/a>beobachten, welcher gewisse Personengruppen diskriminieren soll. Auch wenn solche Systeme nur unterst\u00fctzend arbeiten sollen, so werfen sie doch Fragen und <a href=\"https:\/\/futurezone.at\/netzpolitik\/ams-gibt-gruenes-licht-fuer-bewertung-von-arbeitslosen-durch-algorithmus\/400607894\" target=\"_blank\" rel=\"noreferrer noopener\"><u>criticism<\/u><\/a>auf, besonders in Bezug auf Gender Bias.<\/p>\n\n\n\n<h3 class=\"wp-block-heading\" id=\"viewer-aufok\">Beeintr\u00e4chtigte Wahrnehmung im Sourcing.<\/h3>\n\n\n\n<p id=\"viewer-c56v7\">Gender Bias, oder auch geschlechtsbezogener Verzerrungseffekt, beschreibt die Beeintr\u00e4chtigung von Wissen und Wahrnehmung und somit die Beeinflussung von Forschungsergebnissen oder Daten. Er kann in vielen Bereichen auftreten und schlie\u00dft sowohl die Erforschung vorrangig M\u00e4nner betreffender Probleme, das Ignorieren von sozialem oder biologischem Geschlecht, als auch die unterschiedliche Beurteilung gleicher Verhaltensweisen oder Eigenschaften von Frauen und M\u00e4nnern ein.<\/p>\n\n\n\n<p id=\"viewer-bvu7b\" class=\" translation-block\">Dabei spielt diese Art von Bias gerade im HR-Bereich eine gro\u00dfe Rolle. In unserem letzten Post haben wir unter anderem \u00fcber ATS, Applicant Tracking Systeme, gesprochen. Auch dort wird verst\u00e4rkt auf algorithmische Unterst\u00fctzung zur\u00fcckgegriffen und die Abwesenheit von Gender Bias kann nicht garantiert werden. Wir haben uns in diesem Zusammenhang einige Fragen gestellt:<\/p>\n\n\n\n<p id=\"viewer-96ep4\">Sollte es Algorithmen erlaubt sein, \u00fcber Berufschancen verschiedener Bev\u00f6lkerungsgruppen zu entscheiden? Kann eine Neutralit\u00e4t bei dieser Entscheidungsfindung garantiert werden, um den Gender Bias zu eliminieren? Und welche Schritte k\u00f6nnen unternommen werden, um dies zu erreichen?<\/p>\n\n\n\n<p id=\"viewer-akkus\">Diesen und noch weiteren Fragen zum Thema Algorithmen in der Personalauswahl gehen wir in diesem Blogpost nach.<\/p>\n\n\n\n<p id=\"viewer-75p6u\">Spricht man von K\u00fcnstlicher Intelligenz (KI), wird oft auch der Begriff Machine Learning gleichgestellt. Dabei bezeichnet man Machine Learning als Teilbereich der Technologie rund um K\u00fcnstliche Intelligenz. Es beschreibt die F\u00e4higkeit von Algorithmen, basierend auf Trainingsdaten Entscheidungen zu treffen und Zusammenh\u00e4nge zu erschlie\u00dfen.<\/p>\n\n\n\n<p id=\"viewer-770cv\">Wie k\u00f6nnen diese Trainingsdaten aussehen? Sie m\u00fcssen themenbezogen und relevant sein. Bei Amazon handelte es sich um eine Sammlung von Lebensl\u00e4ufen, um eine \u00dcberpr\u00fcfung und Vorselektierung dieser zu automatisieren. Die mangelnde Diversit\u00e4t der Trainingsdaten hat sich haupts\u00e4chlich auf die Bewerberinnen ausgewirkt, da weibliche Begriffe und Namen als nicht relevant eingestuft wurden. Die Daten waren also themenbezogen und relevant, jedoch nicht ausreichend, um ein allumfassendes und inklusives Trainingsprofil zu erstellen.<\/p>\n\n\n\n<p id=\"viewer-42q\">Hinzu kommt, dass ein Algorithmus in der Basis immer von Menschen geschrieben wurde, und somit nicht unfehlbar sein kann. Stimmt das?<\/p>\n\n\n\n<h3 class=\"wp-block-heading\" id=\"viewer-1dn5j\">Kognitive Verzerrung: Stereotyping.<\/h3>\n\n\n\n<p id=\"viewer-ap1m4\" class=\" translation-block\">Tats\u00e4chlich ist das menschliche Gehirn anf\u00e4llig f\u00fcr Fehler - besonders, da viele Entscheidungen und Vorg\u00e4nge unbewusst und automatisiert ablaufen. HR today spricht von sogenannten kognitiven Verzerrungen. Hier ist zum einen das Stereotyping zu nennen. Wir m\u00fcssen oft sehr schnell entscheiden, ob eine Person, die wir neu kennenlernen, vertrauensw\u00fcrdig erscheint oder nicht. Unbewusst kann dies auch in Algorithmen vorkommen - Amazon ist hier ein gutes Beispiel: als bekannt wurde, dass Bewerber bevorzugt gegen\u00fcber Bewerberinnen behandelt werden, wurde die Ber\u00fccksichtigung des Geschlechtes aus dem Algorithmus genommen. Frauen wurden dennoch h\u00e4ufiger ausgeschlossen, da der Algorithmus trotzdem auf \u201ctypisch weibliche\u201d Freizeitbesch\u00e4ftigungen oder reine M\u00e4dchenschulen reagierte und diese Lebensl\u00e4ufe entsprechend herausfilterte.<\/p>\n\n\n\n<h3 class=\"wp-block-heading\" id=\"viewer-esoom\">\u00dcber Gehalt und Selbstwahrnehmung.<\/h3>\n\n\n\n<p id=\"viewer-cbece\">Sieht man sich die Bewerberinnenseite an, so entnehmen wir folgende Meinungen:<\/p>\n\n\n\n<p id=\"viewer-6clq6\">Frauen geben bei ihren Gehaltsvorstellungen teilweise ein geringeres Gehalt als M\u00e4nner an.<\/p>\n\n\n\n<p id=\"viewer-162jo\">W\u00fcrde man eine KI auf diese Trainingsdaten trainieren, so k\u00f6nnten Frauen tendenziell niedriger bezahlte Jobs vorgeschlagen werden, obwohl sie die gleiche Leistung erbringen w\u00fcrden.<\/p>\n\n\n\n<p id=\"viewer-23nfc\">Bedeutet dies also, dass Frauen sich grunds\u00e4tzlich weniger zutrauen? Eine <a href=\"https:\/\/arxiv.org\/abs\/1904.02095v1\" target=\"_blank\" rel=\"noreferrer noopener\"><u>wissenschaftliche Studie<\/u><\/a> \u00fcber Stellenanzeigen auf sozialen Netzwerken fand heraus, dass Frauen seltener auf bestimmte Anzeigen klicken als M\u00e4nner. Dies kann verschiedene Ursachen haben, sagt <a href=\"https:\/\/persoblogger.de\/2020\/11\/02\/fairness-und-praediktion-in-der-personalauswahl-ein-nullsummenspiel\/\" target=\"_blank\" rel=\"noreferrer noopener\"><u>Persoblogger<\/u><\/a>Teilweise wird nach \u201cProgrammierern\u201d gesucht und Frauen f\u00fchlen sich mitunter gar nicht erst angesprochen. Durch weitere Kriterien, wie unflexible Arbeitszeiten, k\u00f6nnen M\u00fctter indirekt ausgeschlossen werden.<\/p>\n\n\n\n<h3 class=\"wp-block-heading\" id=\"viewer-4ffpe\">Faire Entscheidungen ohne Machine Learning.<\/h3>\n\n\n\n<p id=\"viewer-8lbmj\">Unser Algorithmus nutzt kein Machine Learning zur Weiterentwicklung. Denn wir sind uns bewusst, dass genau dies zu ungewolltem Gender Bias f\u00fchren kann. Wie genau wir dem entgegenwirken, haben wir gemeinsam mit unserem Algorithmus-Experten und Co-founder Dr. Stefan Frehse, der ebenso f\u00fcr das <a href=\"https:\/\/www.dfki.de\/en\/web\/\" target=\"_blank\" rel=\"noreferrer noopener\"><u>Deutsche Forschungszentrum f\u00fcr K\u00fcnstliche Intelligenz<\/u><\/a>beratend t\u00e4tig ist, genauer erkl\u00e4rt.<\/p>\n\n\n\n<p id=\"viewer-f41h1\">Der matched.io Algorithmus vergleicht die von Entwickler:innen get\u00e4tigten Eingaben mit den Job-Angaben der Unternehmen. Innerhalb von 3 Sekunden erstellt der Algorithmus eine Vorauswahl an passenden Vorschl\u00e4gen f\u00fcr Unternehmen und Kandidat:innen. Dabei wird jedes Profil in verschiedene Bereiche aufgeteilt, welche unterschiedliche Gewichtung bekommen.<\/p>\n\n\n\n<p id=\"viewer-7i3fa\">Da unsere Founder langj\u00e4hrige Erfahrung in den Bereichen der Softwareentwicklung und Personalberatung haben, k\u00f6nnen wir dieses Wissen einbringen.<\/p>\n\n\n\n<h3 class=\"wp-block-heading\" id=\"viewer-9vkgh\">Wir suchen die individuell passende L\u00f6sung.<\/h3>\n\n\n\n<p id=\"viewer-5st6l\">Wir schauen uns jede:n Nutzer:in als Individuum an. Die Ausspielung der Vorschl\u00e4ge erfolgt zuf\u00e4llig, um einen Bias auszuschlie\u00dfen. Nach dem Ablehnen eines Vorschlags kann jede Partei Feedback geben. Waren die Gehaltsvorstellungen zu hoch oder das Angebot zu niedrig? Passt die Unternehmenskultur doch nicht? Oder gibt es eine andere Vorstellung zum Einsatz von Skills und Technologien? Dieses Feedback ber\u00fccksichtigt unser Algorithmus und kann so Entwickler:innen und Unternehmen besser kennenlernen und verstehen. Dadurch werden die Vorschl\u00e4ge immer passender. Wichtig: Bei dem Feedback handelt es sich nicht um Trainingsdaten, sondern um individuell ber\u00fccksichtigte Antworten, um die Berechnungen des Algorithmus noch akkurater zu gestalten. Das Feedback wird, anders als Trainingsdaten, nicht auf alle User angewandt, sondern nur in Bezug auf Feedbackgeber.<\/p>\n\n\n\n<p id=\"viewer-1ufmh\">Wir leben eine Kultur ohne Gender Bias und arbeiten tagt\u00e4glich daran, dies auch weiterhin in unserem Produkt sicherzustellen.<\/p>\n\n\n\n<h3 class=\"wp-block-heading\" id=\"viewer-6mmc6\">Technisches Recruiting, das inklusiv ist.<\/h3>\n\n\n\n<p id=\"viewer-9cql6\">F\u00fcr den Einsatz von Algorithmen in der Personalauswahl ist es also wichtig, dass vom Computer get\u00e4tigte Entscheidungen kontinuierlich hinterfragt werden. Ungleichheiten m\u00fcssen entdeckt und sofort entfernt werden. Das ist die Basis von matched.io, weshalb wir st\u00e4ndig an der Weiterentwicklung unseres Algorithmus arbeiten. Stefan hat uns bereits etwas \u00fcber die n\u00e4chste gro\u00dfe Ver\u00e4nderung erz\u00e4hlt. Der matched.io Algorithmus wird in Zukunft in der Lage sein, basierend auf den angegebenen Skills, Vorschl\u00e4ge zum marktgerechten Gehalt, zu gefragten Tech-Skills sowie zur pers\u00f6nlichen Weiterentwicklung zu geben. So bringen wir Entwickler:innen und Unternehmen noch intelligenter zusammen.<\/p>\n\n\n\n<p id=\"viewer-fopeg\">Wir sehen dies als weiteren Schritt, die Welt des technischen Recruitings zu verbessern und ein St\u00fcck inklusiver zu machen.<\/p>","protected":false},"excerpt":{"rendered":"<p>In 2018, Amazon&#8216;s Artificial Intelligence for checking resumes was a prime example of gender bias in AI systems. We can also observe something similar with the planned algorithm of the Austrian labor market service AMS, which supposedly discriminates against certain groups of people. Even though such systems are only intended to be supportive, they raise [&hellip;]<\/p>","protected":false},"author":7,"featured_media":1272,"comment_status":"closed","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[18],"tags":[],"class_list":["post-1271","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-blog"],"aioseo_notices":[],"authors":[],"_links":{"self":[{"href":"https:\/\/matched.io\/de\/wp-json\/wp\/v2\/posts\/1271","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/matched.io\/de\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/matched.io\/de\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/matched.io\/de\/wp-json\/wp\/v2\/users\/7"}],"replies":[{"embeddable":true,"href":"https:\/\/matched.io\/de\/wp-json\/wp\/v2\/comments?post=1271"}],"version-history":[{"count":0,"href":"https:\/\/matched.io\/de\/wp-json\/wp\/v2\/posts\/1271\/revisions"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/matched.io\/de\/wp-json\/wp\/v2\/media\/1272"}],"wp:attachment":[{"href":"https:\/\/matched.io\/de\/wp-json\/wp\/v2\/media?parent=1271"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/matched.io\/de\/wp-json\/wp\/v2\/categories?post=1271"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/matched.io\/de\/wp-json\/wp\/v2\/tags?post=1271"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}