Schwarze Schafe in der Black Box
Warum die falschen KI-Tools der Zukunft von KI letztlich nur schaden
Autor: Sara Lindemann
Anfang April erschien in der Fachzeitschrift Human Resources Manager ein Artikel, der sich intensiv mit der Frage auseinandersetzte, ob Sprachanalysesoftware ein Recruitingtool für die Zukunft sei. Der Artikel ist eine Blaupause der HR-Diskussion rund um die Nutzung künstlicher Intelligenz in Personalauswahlprozessen. Ist die Analyse von Sprache nützlich für Personaler und deren Auswahl? Ist sie DSGVO-konform? Ist sie manipulierbar? Ersetzt die Technik den Menschen? All dies sind berechtigte und wichtige Fragen, die Antworten verdienen und brauchen. Trotzdem: Wir haben derzeit das Gefühl, dass diese wichtige Diskussion derzeit genau an dieser Stelle verharrt und durch die Besprechung unnützer KI-Tools nicht vorankommt. Auch deswegen würden wir den Artikel – und es gibt sehr viele in ähnlichem Duktus – zum Anlass nehmen, einen anderen wichtigen inhaltlichen Impuls zu setzen.
Vorab: KI-Komponenten verfügen über ein sehr großes Potenzial für Personaler, HR-Verantwortliche sowie für alle, die an der Personalauswahl beteiligt sind. Sie können wertvolle Hilfestellungen leisten, die durch andere herkömmliche Methoden nicht effizient darstellbar wären. Allerdings beinhalten sie zweifellos das Risiko, Biases und damit diskriminierende Beurteilungen in der Personalauswahl zu systematisieren und eben zu verfestigen.
Revolution geht anders!
Wir wissen: Viele Anbieter im HR-Dienstleistungsbereich experimentieren bereits sehr intensiv mit KI-Algorithmen und versprechen darauf basierend oft viel zu früh und auch nicht selten zu vollmundig die KI-Revolution im Recruiting. Was sie dabei leider oft vergessen ist die Tatsache, dass sich diese KI-Tools sowohl einer datenschutzrechtlichen als auch einer eignungsdiagnostischen sowie personalwirtschaftlichen Gütebeurteilung unterziehen und dieser standhalten müssen.
Von dieser Anforderung sind Programme in besonderem Maße betroffen, die Persönlichkeitsprofile von Bewerbern auf Basis von Wortwahl, Satzbau, Stimmlage, Mimik und Gestik von Bewerbern analysieren und darauf basierend die berufliche Eignung von Kandidaten für eine Position ableiten wollen. Die schwarzen Schafe unter diesen KI-Tools beziehen sogar nur einzelne dieser Merkmale in ihre Analyse ein – eine denkbar schlechte Grundlage für eine verlässliche und eignungsdiagnostisch einwandfreie Vorhersage. Der viel beschworene „Perfect Match“ jedenfalls funktioniert auf diese Weise sicher nicht.
Wie viel weiß der Kandidat?
Darüber hinaus sind viele dieser KI-Ansätze auch deshalb so fragwürdig, weil ganz entscheidende Fragen der Personalauswahl nicht transparent genug beantwortet werden. Welche Datenpunkte werden erfasst? Auf welchen Daten hat der Algorithmus gelernt? Und vor allem: Wie tiefgreifend sind die Rückschlüsse, die auf Basis der Daten gezogen werden können? Viel zu häufig werden in diesem Kontext nur korrelative Zusammenhängen erstellt, die im Weiteren auch nicht weiter hinterfragt werden und ohne kontinuierliche Qualitätsüberwachung zu fatalen Fehlentscheidungen führen können.
In Bezug auf Sprachanalyse-Tools gilt es also die entscheidende Frage zu beantworten, ob die korrelativen Zusammenhänge überhaupt sinnvolle sowie ethisch vertretbare Entscheidungen ermöglichen. Daneben bedarf es einer Klarstellung, wie transparent die Prozesse für den Kandidaten selbst sind. Dieser muss, darf und soll wissen, wie welche Bereiche seiner Persönlichkeit analysiert werden. Das betrifft selbstverständlich auch den übergeordneten Zweck der Analyse. Der Übergang von beruflichen Merkmalen hin zu persönlichen ist fließend. Nicht zuletzt muss klar kommuniziert werden, wer Zugriff auf die erhobenen Daten hat. Das allerdings ist häufig unklar – ein unhaltbarer Zustand. Denn wir glauben: Ein scharfer Eingriff in die wahrgenommene Autonomie und Privatsphäre des Kandidaten liegt dann vor, wenn ein Kandidat nicht mehr nachvollziehen kann, welche “Inputs” er oder sie geliefert hat, die letztlich zu einer Beurteilung seiner bzw. ihrer Person herangezogen werden. Hier ist maximale Transparenz unumgänglich und ein unbedingtes gebot – ethisch, eignungsdiagnostisch wie aus Gründen der Arbeitgeberreputation.
KI löst nicht ab, sie ergänzt – da, wo sie die Personalauswahl besser macht
Wir sehen: Viel Ärger also um eigentlich profane Erkenntniswerte, die gute Personalabteilungen momentan gleich gut oder sogar besser mit aktuellen Methoden und Techniken erreichen können. Das heißt für HR: Blindes Vertrauen in vollmundige Versprechen mancher KI-Anbieter und daraus vielleicht entstehende naive Vorstellungen gehen schnell nach hinten los, torpedieren die derzeitige eigentlich sinnvolle KI-Diskussion und schaffen nur weitere Black-Boxen.
Die Frage ist daher, welche KI-Tools wirklich eine bessere, fairere und validere Auswahlentscheidung ermöglichen und nicht nur einen unnötigen HR-Hokus-Pokus veranstalten?
Aufgrund der zwar immer noch zu langsamen, dafür aber immerhin stetig voranschreitenden Digitalisierung von HR-Prozessen gibt es vor allem einen sichtbaren KI-Hebel: den Einsatz von smarten Algorithmen. Selbstverständlich sind daran auch Prozesse geknüpft, die Bewerber und Mitarbeiter involvieren. viasto hat beispielsweise ein Tool auf Basis künstlicher Intelligenz entwickelt, das smarte Interviewleitfäden für Arbeitgeber erstellt, die genau zu dem jeweiligen Kandidaten und der entsprechenden Stelle passen – tatsächlich auf Knopfdruck. Künstliche Intelligenz lässt sich so ganz easy in bestehende und bewährte Prozesse einfügen. Sie löst sie nicht ab, sondern ergänzt sie ideal. So werden HR-Prozesse maximal vereinfacht und optimiert, ohne dass auch nur im Ansatz Persönlichkeitsrechte verletzt werden.
Mehr über diese viasto-Entwicklung lesen Sie übrigens hier: Passende Jobinterviews in Millisekunden