Informationstechnologie führt zu einer Homogenisierung und Automatisierung des sozialen, politischen und intellektuellen Lebens
Algorithmen sind gerade deshalb programmiert worden, um den Menschen aus dem Erkenntnisprozess zu entfernen.
Jörn Klare schreibt in piqd einen spanenden Artikel über den Einfluss der Internet-Konzerne: „„Monopolisten des Geistes“ oder wie autoritär Tech-Konzerne unser Denken bestimmen“
Es ist ausgesprochen lesenswert, wie dicht Adrian Lobe den aktuellen Stand der Diskussion um den Einfluss von Google, Facebook und Co auf unser Wissen und Denken zusammenfasst.
Ein Ausgangspunkt ist dabei die Feststellung von Franklin Foer, Redakteur bei The Atlantic, dass die Informationstechnologie zu einer Homogenisierung und Automatisierung des sozialen, politischen und intellektuellen Lebens führt.
Algorithmen sind gerade deshalb programmiert worden, um den Menschen aus dem Erkenntnisprozess zu entfernen.
Mittlerweile sei die Macht von Google so weit verinnerlicht, dass die Nutzer der Suchmaschine Wissen und Google-Halbwissen gleichsetzen. Dabei entscheiden allein algorithmische Entscheidungssysteme welche Informationen wir sehen. Besonders brisant dabei: Programmcodes übernehmen durch ihre Auswahl und Wertung politische Steuerungen im Sinne einer, so der Soziologe A. Aneesh, „Algokratie“.
Mit jeder Modifikation des Newsfeed-Algorithmus wird Herrschaft ausgeübt.
Dazu kommt, dass die beispiellose Akkumulation von Daten als Wissenskanon, etwa durch die monopolisierte und gleichwohl urheberrechtlich bedenkliche Digitalisierung von Büchern, nicht mehr als kultureller Wert oder Bildungsgut im Dienste der Menschheit verstanden werden kann, sondern als ein Pool von Trainingsdaten für Maschinen.
„Wir scannen nicht all die Bücher, damit sie von Menschen gelesen werden. Wir scannen die Bücher, damit sie von künstlicher Intelligenz gelesen werden.“
Weiterlesen bei piqd
Die Klassiker der Dystopie
Jörn Klare bringt es auf den Punkt: Als Folge der Digitalen Transformation beeinflussen Internet-Giganten eine schleichende Veränderung des menschlichen Erkenntnisprozesses. Diese Schlussfolgerung ist allerdings nicht ganz neu.
Schon vor dem Anbruch des Internet-Zeitalters haben sich Schriftsteller mit dem Thema der autoritären Beherrschung des menschlichen Denkens beschäftigt. Vielen ist die Dystopie George Orwells „1984“ zumindest aus den Schultagen in beklemmender Erinnerung. Winston Smith, der Protagonist, erkennt die grenzenlose Überwachung durch den Staat und wie dessen Propaganda Newspeak oder Neusprech die Gedankenwelt der Menschen manipuliert. Damit sollen so genannte Gedankenverbrechen unmöglich werden.
Das Neusprech unserer Tage heißt Political Correctness. Im digitalen Zeitalter werden diese auf die Hashtag-Kurzvarianten wie #MeToo oder #Aufschrei reduziert, mit maximaler Verbreitung in den Sozialen Medien und minimalem Nachdenken – sieht man beispielsweise von der Meinungsäußerung der Schauspielerin Catherine Deneuve ab.
Ray Bradbury hat in seiner Novelle „Fahrenheit 491“ geschildert, wie die Diktatur systematisch Bücherverbrennungen durchführt, um das selbständige Nachdenken der Menschen entgültig zu stoppen. Lediglich eine kleine Gruppe von Aussenseitern wehren sich dagegen, indem sie die klassischen Bücher auswendig lernen und so mit ihrem Gedächtnis gegen die Staatsmacht dagegen halten.
Aldous Huxley zeichnet in seiner Dystopie „Brave New World“ ein Bild der Gesellschaft im Jahr 2540 n.Chr.
„Mittels physischer Manipulationen der Embryonen und Föten sowie der anschließenden mentalen Indoktrinierung der Kleinkinder werden die Menschen gemäß den jeweiligen gesellschaftlichen Kasten geprägt, denen sie angehören sollen und die von Alpha-Plus (für Führungspositionen) bis zu Epsilon-Minus (für einfachste Tätigkeiten) reichen.
Allen Kasten gemeinsam ist die Konditionierung auf eine permanente Befriedigung durch Konsum, Sex und die Droge Soma, die den Mitgliedern dieser Gesellschaft das Bedürfnis zum kritischen Denken und Hinterfragen ihrer Weltordnung nimmt. Die Regierung jener Welt bilden Kontrolleure, Alpha-Plus-Menschen, die von der Bevölkerung wie Idole verehrt werden. „(Aus Wikipedia)
Eine kurze und pointierte Auseinandersetzung mit dem Problem der Gleichmacherei im Namen der Gerechtigkeit schrieb Kurt Vonnegut in seiner Kurzgeschichte Harrison Bergeron.
The year was 2081, and everybody was finally equal. They weren’t only equal before God and the law. They werde equal every which way. Nobody was smarter than anybody else. Nobody was better looking than anybody else. Nobody was stronger or quicker than anybody else.
All this equality was due to the 211th, 212th, and 213th Amendments to the Constitution, and to the unceasing vigilance of agents of the United States Handicapper General.“
David Eggers publizierte 2013 seinen dystopischen Roman „The Circle“, in welchem ein Internet-Gigant die Dienstleistungen von Google, Facebook & Co bündelt und so die Grundlage zur totalen Überwachung, pardon, Beeinflussung legt. Im Gegensatz zur aktuellen Internet-Praxis geht Eggers noch einen entscheidenden Schritt weiter. Er bechreibt, wie der fiktive Internet-Konzern durch die Einführung einer einheitlichen Personen-ID zu Zusammenführung unterschiedlicher Profile ermöglicht.
Die „Lake Wobegon“-Strategie von Google
Lake Wobegon ist ein fiktiver Ort, der von dem amerikanischen Schriftsteller und Radiomoderator Garrison Keillor erfunden wurde. In der idealisierten Welt des Dorfs Lake Wobegon sind „alle Frauen stark, alle Männer gutaussehend und alle Kinder überdurchschnittlich“ sind. In der Psychologie wird der Lake-Wobegon-Effekt als Tatsache beschrieben, dass die Mehrheit der Menschen bestimmte eigene Fähigkeiten für überdurchschnittlich hält.
Google hat sich nicht nur als Innovationszentrum des Internets etabliert, auch die von Google praktizierten Recruiting-Verfahren sind legendär. Da wird schon gelegentlich über berühmt-berüchtigten Fragen im Job-Interview berichtet („Wie schwer ist Manhattan?“). Jedoch wird ein anderes Recruiting-Verfahren höchstens unter Insidern diskutiert: Die Lake-Wobegon-Strategie.
In der Personalbeschaffungspolitik des Internet-Konzerns Google hat sich ein ähnliches, wenn auch modifiziertes Konzept durchgesetzt: „Wir stellen nur Bewerber ein, die über dem Durchschnitt unserer derzeitigen Mitarbeiter liegen“. Konsequenterweise führt diese Recruitierungspolitik zu einer mittelfristigen Verbesserung der durchschnittlichen Mitarbeiterqualifikation – ein positiver Lake-Wobegon-Effekt. (Lesen Sie hier den Crosswater-Bericht „Lake Wobegon: Durchschnittsqualifikation verbessern“.
Gott schreibt keine Algorithmen
In der aktuellen Diskussion über Digitale Transformation, Künstliche Intelligenz oder Big Data Analysis rücken auch die Algorithmen in den Mittelpunkt. Aktueller Anlass ist die Kontroverse zwischen dem Bundeskartellamt und Lufthansa.
„Im Zuge ihrer Überprüfung erhöhter Ticketpreise äußerte die Behörde Skepsis über die Argumentation des deutschen Branchenprimus. Kartellamtschef Andreas Mundt sagte der „Süddeutschen Zeitung“, das Unternehmen könne sich nicht hinter seinem computerbasierten Preissystem verstecken.
Die Lufthansa hat nach eigenem Bekunden nicht an der Preisschraube gedreht. Sie verweist vielmehr auf eine Software, die abhängig von der Nachfrage automatisch die Preise für bis zu 26 Buchungsklassen ermittelt. Mundt hielt dem entgegen: „Solche Algorithmen werden ja nicht im Himmel vom lieben Gott geschrieben.“ (Handelsblatt vom 28.12.2017)
Im Kern dreht sich diese Auseinandersetzung um die Frage, wer denn letztlich für die Ergebnisse der eingesetzten Algorithmen verantwortlich ist. Brisant wird es dann, wenn diese Ergebnisse nicht konform gehen mit gesetzlichen Vorschriften. Preistreiberei bei der Lufthansa verstößt gegen das Kartellrecht, die Algorithmen des Volkswagenkonzern bei der Manipulation der CO2-Werte verstoßen gegen nationale und internationale Umweltschutzbestimmungen.
HR-Algorithmen bei Personalauswahl und Matchingverfahren
Welche Konsequenzen ergeben sich für HR?
Matching, Diagnostik und Bewerberauswahlverfahren kommen heutzutage nicht mehr ohne mehr oder weniger hoch entwickelte Rechenmodelle aus. Doch sind diese Modelle auch konform mit gesetzlichen Vorschriften des Allgemeinen Gleichstellungsgesetz (AGG) oder anderer Anti-Diskriminierungs-Regeln, wie sie jetzt auch im Entgelttransparenzgesetz festgeschrieben sind?
Der nächste und eigentlich logische Schritt ist der Nachweis, dass ein im Personalwesen eingesetzter Algorithmus gesetzeskonform ist. Wer kann diese Garantie abgeben? Wie wird ein Rechenmodell geprüft? Welche Daten (real oder fiktiv) liegen diesen Tests zugrunde? Gibt es bald einen Algorithmus-TÜV? Wer kontrolliert die reale oder fiktive Wahrheit?
Fragen über Fragen, die natürlich in den Echo-Kammern des Hypes um die Digitale Transformation (noch) nicht gestellt werden.
.