Wenn Maschinen Menschen bewerten

Von KONRAD LISCHKAANITA KLINGEL

Kriminalitätsprognosen, Kreditvergabe, Bewerberauswahl: Algorithmische Systeme beeinflussen heute auf unterschiedlichen Gebieten die Leben vieler Menschen. Damit maschinelle Entscheidungen den Menschen dienen, braucht es gesellschaftliche Gestaltung, zum Beispiel in Form von Gütekriterien für algorithmische Prognosen. Vorhersagen müssen sachgerecht angewendet werden, widerlegbar und unabhängig zu überprüfen sein.

In Filmen und Romanen haben künstliche Wesen seit Jahrzehnten Bewusstsein und verfolgen eigene Absichten. Beides fehlt den Systemen, die heute Kreditwürdigkeit beurteilen, Versicherungstarife berechnen, Bewerbungen vorsortieren oder Polizeikräften Orte für Patrouillen vorschlagen. Neun solcher Anwendungsbeispiele für Prozesse algorithmischer Entscheidungsfindung untersucht unser Arbeitspapier „Wenn Menschen Maschinen bewerten“.

Algorithmische Systeme. Entscheidungsvorbereitung, Vorhersagen, Crosswater Job Guide,

Eine Erkenntnis: Algorithmische Systeme können großen Einfluss auf die Teilhabechancen vieler Menschen haben – zum Beispiel bei der Bewerberauswahl. Automatisierte Verfahren können einerseits Kompetenzen sichtbar machen und Menschen basierend auf ihrem Können auch ohne formale Abschlüsse zu einem Wunschjob führen. Andererseits kann der breite Einsatz algorithmischer Systeme auch diskriminieren und Fehler verstärken. Wenn ein von vielen Arbeitgebern genutztes algorithmisches System aufgrund einer Fehlfunktion bestimmte Bewerberprofile ablehnt, geht es für die Menschen nicht nur um eine Stelle, sondern um den Zugang zur Mehrheit potenzieller Stellen.

Um die Chancen algorithmischer Entscheidungsfindung für mehr Teilhabe zu nutzen, müssen diese Prozesse bei der Planung, Gestaltung und Umsetzung klar auf dieses übergeordnete Ziel ausgerichtet werden. Wenn das nicht geschieht, kann der Einsatz dieser Werkzeuge aber auch ohne weiteres zu mehr sozialer Ungleichheit führen. Das gilt es unbedingt zu verhindern.

Die im Arbeitspapier aufbereiteten Fallbeispiele zeigen die Chancen und Risiken solcher Prozesse. Ein Beispiel: Algorithmische Systeme können sehr konsistent entscheiden. Sie arbeiten zuverlässig die vorgegebene Entscheidungslogik in jedem Einzelfall ab. Darin liegt eine Chance. Im Gegensatz zum Menschen ist Software nicht tagesformabhängig und wendet nicht willkürlich im Einzelfällen neue, vielleicht ungeeignete oder diskriminierende Kriterien an. Doch genau diese Konsistenz algorithmischer Systeme birgt gleichzeitig Risiken: Auch fehlerhafte oder ethisch unangemessene Entscheidungslogiken würde ein System in jedem Einzelfall zuverlässig anwenden. Ein andere denkbare Gefahr: Bei ungewöhnlichen Einzelfällen fehlt die nötige Flexibilität, eine in diesem Einzelfall wichtige Information auszuwerten und anders zu gewichten.

Weiterlesen: https://algorithmenethik.de/2017/05/02/wenn-maschinen-menschen-bewerten/

 

Kommentar verfassen

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.