Digitalisierung Nachrichten Recruiting

Künstliche Intelligenz im Recruiting: Brauchen wir eine TÜV-Plakette?

Von Gerhard Kenk, Crosswater Job Guide

Wenn man dem Hype um die Künstliche Intelligenz glauben darf, könnte sie schon alsbald das Allheilmittel für die jahrzehntealte Nemesis im Recruiting gelten: Beschleunigung des Bewerbungsprozesses, Vermeidung von Vorurteilen und Diskriminierung, konsistente Auswahl von Bewerbern ohne lange Umwege. Doch das romantische Zeitalter von künstlicher Intelligenz im Recruiting geht bald zu Ende und weicht einer kritischen Betrachtungsweise. Ein Realitätscheck ist notwendig.

Es geht um die Analyse von Bewerberdaten, die mit Big Data, Machine Learning, Bias, ChatBots, AGG oder Social Media Background Check nur andeutungsweise umschrieben wird. Am Ende des Prozesses steht eine Entscheidung: Wird der Bewerber zum Jobinterview eingeladen, oder nicht? Eine brutale Weichenstellung mit möglichen gravierenden Auswirkungen auf den weiteren Karriereweg von Aspiranten oder eine Brot-und-Butter-Frage der normal sterblichen Arbeitsmarktteilnehmer.

Methodik der Bewertung

Die Notwendigkeit zu hinterfragen

„In the case of systems meant to automate candidate search and hiring, we
need to ask ourselves: What assumptions about worth, ability and potential
do these systems reflect and reproduce? Who was at the table when these
assumptions were encoded?“

Meredith Whittaker, Executive Director, AI Now Institute

Dabei werden hehre Erwartungen an den Einsatz von KI im Recruiting gestellt, wie beispielsweise Standardisierung des Entscheidungsprozesses. Nachvollziehbarkeit und Transparenz. Jüngste Beispiele, wie Amazon mit der künstlichen Intelligenz im Recruiting leidvoll erfahren musste, haben die Glaubwürdigkeit untergraben. Der Internet-Gigant Amazon fand sich mit seinem jahrelangen praktizierten Einsatz der künstlichen Intelligenz in den Einstellungsprozessen unversehens in einem Minenfeld von Überraschungen und unerwünschter Publizität wider als bekannt wurde, dass genderspezifische Vorurteile durch die zur Anwendung kommende künstliche Intelligenz nicht verhindert, sondern sogar noch verstärkt wurde: Diskriminierung: Deshalb platzte Amazons Traum vom KI-gestützten Recruiting.

T3N schreibt dazu:

Künstliche Intelligenz, so die Meinung vieler Techno-Utopisten, kann eine gerechtere Welt schaffen, weil ihre Entscheidungsprozesse frei von Emotionen und damit auch von Vorurteilen sind. Das klingt zwar gut, sieht in der Praxis allerdings häufig anders aus. Ein gutes Beispiel dafür ist Amazon. Nach einem Reuters-Bericht versucht das Unternehmen schon seit 2014, eine KI zu entwickeln, die den Einstellungsprozess optimieren sollte. „Sie wollten eine Maschine, der du 100 Bewerbungen gibst und die dann die besten fünf Kandidaten ausspuckt“, zitiert Reuters einen anonymen Amazon-Mitarbeiter. Ein Jahr später haben die Verantwortlichen dann aber einen folgenschweren Fehler bemerkt: Die KI benachteiligte Frauen.

Das Problem lag hier wie so häufig bei den Trainingsdaten, anhand derer die KI lernen sollte, welche Bewerber Amazon gerne einstellen würde. Die KI-Modelle wurden anhand von Bewerbungen trainiert, die innerhalb der letzten zehn Jahre bei Amazon eingegangen waren. Die meisten davon kamen allerdings von Männern. Ein offensichtliches Muster, aus dem das System folgerte, dass Männer die bevorzugten Kandidaten waren. Laut  Reuters-Bericht bewertete das Amazon-System Bewerbungen daher schlechter, in denen Begriffe wie „Frauen-Schachclub“ vorkamen. Außerdem sollen auch Frauen schlechtere Bewertungen erhalten haben, die Frauenhochschulen besucht hatten.

Carsten Spohr

Einer ganz anderen Art von Realitätscheck musste sich Lufthansa-Vorstandschef Spohr unterziehen, als es um die Diskussion der Flugpreisgestaltung ging.

Der Spiegel schreibt hierzu:

Bereits Ende November hat das Bundeskartellamt eine Prüfung der teils drastisch gestiegenen Preise für Inlandsflüge der Lufthansa angekündigt. Das Ergebnis steht noch aus, doch nun hat sich der Chef der Wettbewerbsbehörde ausgesprochen skeptisch über die Argumentation des deutschen Marktführers geäußert. Das Unternehmen könne sich nicht hinter seinem computerbasierten Preissystem verstecken, sagte Kartellamtschef Andreas Mundt der „Süddeutschen Zeitung“ („SZ“).

Kartellamtschef Mundt hält dem in der „SZ“ nun entgegen: „Solche Algorithmen werden ja nicht im Himmel vom lieben Gott geschrieben.“ Der angekündigten Prüfung durch die Wettbewerbsbehörde waren zahlreichen Beschwerden von Kunden vorausgegangen. Es werde untersucht, ob eine Preisschwelle übertreten worden sei, ab der Lufthansa ihre neue Macht missbraucht und die Preise unangemessen heraufgesetzt habe, sagte Mundt der Zeitung.

Sollen Bewerber informiert werden?

Es ist ebenfalls die Frage, ob Bewerber im Sinne einer positiven Candidate Experience überhaupt über den Einsatz von Künstlicher Intelligenz und über die entsprechenden Ergebnisse informiert werden sollen. Was im Konsumentenkreditgeschäft mit den Regeln der SCHUFA zur Routine geworden ist, ist im Recruiting so gut wie noch nicht angekommen. Konsumenten haben bei der SCHUFA ein Auskunfts- und Informationsrecht darüber, welche Daten über sie gespeichert sind – die im Zweifelsfall angefochten werden können.

Auch bei Recruiting- und Personalauswahlverfahren müssen die Vorschriften von DSGVO und BDSG beachtet werden, wie Rechtsanwältin Nina Diercks hier ausführlich beschreibt.

Handlungsempfehlung TÜV-Plakette:

Arbeitgeber, denen ein positives Image wichtig ist, sollten durchaus Bewerber schon im Vorfeld über Umfang sowie Art und Weise des Einsatzes von künstlicher Intelligenz im Bewerbungsprozess informieren.

Künstliche Intelligenz: Die Simulation der Realität

Der Einsatz von Künstlicher Intelligenz im Recruiting muss als digitaler Prozess permanent mit einer spiegelbildlichen Simulation abgeglichen werden und die erzielten Ergebnisse in einem Rückkopplungsprozess abgeglichen werden, ob sie noch realitätskonform sind ober – wie im Falle von Amazon – unrealistische und lange Zeit unerwartete Ergebnisse liefern.

Künstliche Intelligenz im Spiegelbild 

Dabei wird eine Bewerbung als digitale Transaktion einem programmierten Entscheidungsprozess unterworfen. Die einzelnen Komponenten der Transaktionen werden gespeichert (Big Data Akkumulation) und nach dem Prinzip des Machine Learning in selbstlernenden Prozessen zur Entscheidungsfindung herangezogen.

Als Realitätscheck werden ebenfalls spiegelbildlich in einer Simulation die gleichen logischen Schritte durchlaufen, jedoch mit repräsentativen Testdaten untermauert.

Einsatz der künstlichen Intelligenz in Chatbots

Mya ist ein Chatbot, der Arbeitgeber in die Lage versetzt, sich mit Bewerbern auf interaktive Weise in Verbindung zu setzen. Chatbots wie Mya sind Tools, die den Bewerbungsprozess einem Screening unterziehen und besonders bei Arbeitgebern, die Jobs mit einer hohen Fluktuation zu besetzen haben, nützlich sind. Dabei extrahiert der Bot wichtige Elemente in Form von vordefinierten Fragen und beantwortet diese im Rahmen der Bewerberkonversation mithilfe der Natural Language Processing (NLP) und ermittelt dann anhand eines Entscheidungsbaums die Antwort.

Mya Chatbot Entscheidungsprozess

Gesichtserkennung bei Video-Interviews 

Bei Video-Interviews kommen ebenfalls Elemente der künstlichen Intelligenz zum Einsatz. Während des Jobinterviews agieren Arbeitgeber direkt mit den einzelnen Kandidaten und Einstellungsentscheidungen werden oft in dieser frühen Phase getroffen. Dabei werden Elemente wie beispielsweise verbale Antworten, Tonfall und sogar Gesichtsausdruck analysiert und einem Ranking unterzogen,  Interview-Antworten werden mit anderen, erfolgreichen Einstellung abgeglichen.

Video-Interview Gesichtserkennung bei HireVue

IT-Experten sind Mangelware

Der Einsatz von künstlicher Intelligenz im Recruiting fällt nicht einfach vom Himmel, es werden IT-Experten benötigt, um solche Projekte in Zusammenarbeit mit den Recruitingabteilungen zu realisieren. Dabei ist es offensichtlich, dass keine branchenübergreifende Standardlösungen verfügbar sind, sondern unternehmensspezifische Besonderheiten individuell und parametrisiert entwickelt werden. Auf alle Fälle müssen solche Projekte auch durch das Fegefeuer des Projektcontrolling hindurch – denn ein Return-on-Investment muss glaubhaft dargestellt werden.

Die Non-Profit-Organisation Upturn kommt in einer kritischen Analyse über die künstliche Intelligenz (Predictive Hiring Technology) zu folgendem Ergebnis:

Because of the inherent weaknesses in nearly all workforce data, predictive hiring tools are prone to be biased by default. Legal and regulatory protections from technology-enabled discriminatory recruitment practices remain largely untested, and in the worst case, they are unsuited to contend with the sort of predictive tools described in this report. Stakeholders are flying blind when it comes to assessing fairness and equity. Jobseekers have little visibility into the tools that are being used to assess them. Employers can have little insight into how their vendors’ proprietary tools actually work. Regulators lack the legal authority, resources, and expertise needed to oversee the growing landscape of predictive hiring technologies. Moreover, modern predictive tools do not fit neatly into established understandings of employment law concepts.

Die daraus abzuleitenden Handlungsempfehlungen fassen die Upturn-Autoren Miranda Bogen und Aaron Rieke so zusammen:

Miranda Bogen

Vendors and employers must be dramatically more transparent about the predictive tools they build and use, and must allow independent auditing of those tools.

Employers should disclose information about the vendors and predictive features that play a role in their hiring process. Vendors should take active steps to detect and remove bias in their tools.

They should also provide detailed explanations about these steps, and allow for independent evaluation. Without this level of transparency, regulators and other watchdogs have no practical way to protect jobseekers or hold responsible parties accountable.

Dabei ist der Einsatz von Künstlicher Intelligenz im Recruiting alles andere als trivial, es ist notwendiger denn je, die Gurus dieses Hypes und ihre Protagonisten zu hinterfragen. Empirische Fakten sind wichtiger als Voodoo.

Die digitale Leibesvisitation

Die Nutzung von künstlicher Intelligenz in Personalauswahlverfahren hat jedoch noch weiterreichende Aspekte, wie Soshana Zuboff in ihrer schonungslosen Analyse von Google, Facebook & Co. „Das Zeitalter  des Überwachungskapitalismus“  beschreibt.

Die Wirtschaftswissenschaftlerin Shoshana Zuboff lehrt in Harvard. (dpa / picture alliance / Ralf Hirschberger)

Es ist nicht okay, jede unserer Bewegungen, Regungen, Äußerungen und Wünsche zu erfassen, katalogisieren und manipulieren, um uns dann um anderer Leute Profit willen wie eine Herde durch die Zukunft zu treiben.

Wenn wir die Demokratie in den kommenden Jahrzehnten erneuern wollen, brauchen wir das Gefühl der Entrüstung, ein Gespür für den Verlust dessen, was man uns da nimmt. Und ich meine damit nicht nur unsere ‚persönlichen Daten‘. Was hier auf dem Spiel steht, ist die Erwartung seitens des Menschen, Herr über sein eigenes Leben und Urheber seiner eigenen Erfahrung zu sein. Was hier auf dem Spiel steht, ist die innere Erfahrung, aus der wir den Willen zum Wollen formen, und die öffentlichen Räume, in denen sie nach diesem Willen handeln lässt.  Was auf dem Spiel steht, ist das herrschende Prinzip sozialer Ordnung in einer Informationszivilisation und unser Recht als Individuen und Gesellschaften, eine Antwort auf die alten ragen zu finden: Wer weiß? Wer entscheidet? Wer entscheidet, wer entscheidet? Dass der Überwachungskapitalismus so viele unsere Rechte in diesen Sphären an sich gerissen hat, ist ein skandalöser  Missbrauch digitaler Fähigkeiten und ihres einst grandiosen Versprechens, das Wissen zu demokratisieren und auf die Erfüllung unserer frustrierten Bedürfnisse eines effektiven Lebens whinzuarbeiten.

Die digitale Zukunft ist nicht aufzuhalten, aber der Mensch und seine Menschlichkeit sollten obenan stehen. 

Morgenröte am Horizont: Die Mystik-Figur Kratt

In Estland gilt die mystische Figur Kratt als ein künstliches Wesen aus Heu, das für seinen Schöpfer alles erledigte, womit er beauftragt wurde. Allerdings musste der Kratt immerzu mit Aufgaben beschätigt werden, weil er sich sonst auf gefährliche Weise gegen seinen Schöpfer wenden würde.

Die mystische Figur Kratt wurde nun zum Vorbild einer neuen Internet-Gesetzgebung in Estland. Ein ‚Kratt Law‘ soll nach den Vorstellungen von Marten Kaevats, dem nationalen Digital-Berater der Regierung von Estland, eine Einschätzung darüber abgeben, wie fortschrittlich eine Anwendung der künstlichen Intelligenz ist. Welche gesetzlichen Schutzmaßnahmen oder Verpflichtungen seien dabei zu ergreifen? Die mit dem Einsatz von künstlicher Intelligenz einhergehenden Fragen der Haftung, Integrität oder Verantwortung für etwaige Konsequenzen müssen auf gesetzlicher Grundlage geklärt werden.

Weiterführende Links:

Spiegel: Kartellamtschef fertigt Lufthansa ab

Upturn: Help Wanted: An Examination of Hiring Algorithms, Equity, and Bias