Macht uns KI freier oder schafft sie neue Zwänge und Ungleichheiten?

Generative KI verspricht die Befreiung von den Bürden des Alltags und ein effizienteres Arbeiten, doch birgt sie auch Risiken. Sie könnte strukturelle Ungleichheiten verschärfen, individuelle Freiheit einschränken und zu Kontrollverlusten führen.
Essay von Christian Herzog, 15. Mai 2024

Frei zu entscheiden
Frei zu entscheiden
Nach der Conditio humana, den besonderen Wesensmerkmalen des Menschen, wird seit der Antike gefragt
Nach der Conditio humana, den besonderen Wesensmerkmalen des Menschen, wird seit der Antike gefragt

Wieder einmal ist eine neuartige Technologie verfügbar, die uns von den Fesseln des Gewöhnlichen und Unbedeutenden befreien soll. Von alltäglichen Pflichten entlastet, soll uns Zeit für bedeutungsvollere Tätigkeiten wie kreative Arbeiten oder soziale Interaktion bleiben. Wir gewinnen größeren Freiraum für das tätige Leben. Versprochen wird nicht weniger als eine Technologie, die die „conditio humana“, also die Bedingungen des Menschseins, an sich verbessert.

Ich spreche von generativer künstlicher Intelligenz (KI), die seit der Veröffentlichung des Chatbots ChatGPT durch OpenAI im November 2022 auch einem breiten Publikum bekannt und zugänglich ist. Es gab bereits vergleichbare KI-Anwendungen die Texte, Bilder und andere Inhalte generieren konnten. Dennoch bin ich der Überzeugung, dass das volle (insbesondere wirtschaftliche) Potenzial erst offensichtlich wurde, als OpenAI sich dazu entschied, das Feld mit der Veröffentlichung von ChatGPT zu „disruptieren“ – also eine Technologie zugänglich zu machen, der umwälzende Neuerungen und quasi zerstörerische Kräfte auf konventionelle Angebote zugeschrieben werden. Obwohl Konkurrenten wie Google zu diesem Zeitpunkt bereits ähnlich leistungsfähige KI-Systeme entwickelt hatten, schien das disruptive Potenzial sie zögern zu lassen, diese zu veröffentlichen.

Seit ChatGPT in der Welt ist, gab es eine Flut von Studien, die das Potenzial für soziale Veränderungen und grundlegende Umgestaltungen der Arbeitswelt aufzeigen sollen. Sowie eine Fülle von Prognosen darüber, wozu das alles führen wird, insbesondere, wann die noch bestehenden erheblichen grundlegenden technischen Herausforderungen überwunden werden können, wie etwa die Tendenz der derzeitigen Texte erzeugenden „Large Language Models“, Unwahrheiten zu generieren.

Die Artificial General Intelligence ist Gegenstand vieler Erlösungsphantasien
Die Artificial General Intelligence ist Gegenstand vieler Erlösungsphantasien

Heilserwartungen an hochautonome KI-Systeme

Manche dieser Vorhersagen sind eng mit dem Streben nach sogenannter „Artificial General Intelligence“ (AGI) verwoben: Dem Ziel eine KI zu entwickeln, die nicht nur eine spezielle Aufgabe erledigen kann, sondern viele verschiedene Dinge lernen und tun kann, ähnlich wie der menschliche Verstand.  Die Forschung an diesen hochautonomen KI-Systemen ist mit großen Heilserwartungen verbunden. Mit fast schon religiösem Eifer, vertreten einige die Überzeugung, dass nur eine AGI die Menschheit vor ihrer eigenen Fehlbarkeit retten kann. Eine Fehlbarkeit, die offenbar zu einer sich verschärfenden Klimakrise, anhaltenden Konflikten und damit zu menschlichem Leid führt.

Daraus folgt die Auffassung, dass sich möglichst frei entwickelnder technologischer Fortschritt der entscheidende Hebel für gesellschaftliche Veränderung ist. Das ist ein gefährlicher Ansatz, da er technische Eingriffe in andere Freiheitsdomänen wie dem Individuum, dem sozialen und politischen Miteinander, dem kulturellen und wissenschaftlichen Austausch als erforderlich legitimiert. Während allgemein solche Freiräume aber als normative Grundlage gelten, um globale Krisen anzugehen, scheinen Technologiegläubige sie als nachrangig einzuschätzen.

Technology is a useful servant but a dangerous master. (Christian Lous Lange)
Technology is a useful servant but a dangerous master. (Christian Lous Lange)

Algorithmische Entscheidungen beschränken Freiheitsgrade

Dieses Bild der Heilserwartung, das ich gezeichnet habe, ist zugegebenermaßen unfair gegenüber denjenigen, die KI-Technologie als einen Teil der möglichen Lösungen sehen, aber nicht als den einzig wesentlichen. Es ist unfair gegenüber denen, die ihre KI-Agenda nicht einseitig vorantreiben, sondern stattdessen eine ganzheitlichere und integrativere Herangehensweise wählen. Es ist auch unfair gegenüber denjenigen, die seit langem die Auffassung vertreten, dass der Mensch in einem ziemlich weitreichenden Sinne eng mit der Technologie verbunden ist und statt einem Antagonismus zwischen Technik und Mensch eher das unvermeidliche Zusammengehören attestieren (vgl. Hörl, 2015). Ähnlich warnen andere schon lange davor, dass, wenn wir das wirtschaftliche und politische System nicht im Einklang mit dem technologischen Fortschritt betrachten, viele der vielversprechendsten Potenziale des technologischen Fortschritts ungenutzt bleiben könnten (vgl. z.B. van Wynsberghe & Robbins, 2019). So habe ich beispielsweise ein Gedankenexperiment angestellt, bei dem Konzernchefs bei unternehmerischen Entscheidungen auf sogenannte künstliche moralische Agenten zurückgreifen, mit ungewissen Folgen, gerade im jetzigen Frühstadium dieser autonomen Systeme (Herzog, 2021). Dieses Beispiel, das ich damals für überspitzt hielt, ist heute beinahe Realität. Schon damals allerdings konnte ich dieses Szenario mit den ersten Berichten über Unternehmen untermauern, die Software einsetzen, um das Management zu ergänzen oder sogar teilweise zu ersetzen (z.B. Novita, 2019; Oracle & Future Workplace, 2019; Schawbel, 2019).

Mein Punkt ist, dass in unserem derzeitigen Wirtschaftssystem, das auf Angebot und Nachfrage, Wettbewerb und freien Märkten basiert, solche Technologien dazu neigen, Machtungleichheiten zu verschärfen. Denn die Kontrolle über die Nutzung und den Zugang zu diesen Technologien ist oft in den Händen weniger Akteure konzentriert. Dies führt nicht nur auf makrosozialer Ebene dazu, dass sich Macht unverhältnismäßig bei bestimmten Individuen ansammelt und potenziell das demokratische und soziale System bedroht, sondern es ist auch wahrscheinlich, dass sie Individuen in ihrer Entscheidungsfreiheit bezüglich sinnvoller Aufgaben einschränken. Dies betrifft etwa die Entscheidung, eine bestimmte Technologie auf einer mikrosozialen, alltäglichen Ebene zu nutzen oder nicht zu nutzen.

Ich glaube jedoch, dass die Freiheit, diese Entscheidungen zu treffen, sehr stark damit zusammenhängt, in welchen Aufgaben der Einzelne Sinn findet. Einige, wenn nicht viele, wirtschaftlich motivierte und in gewissem Sinne erzwungene Anwendungsfälle generativer KI können die Relevanz dieser Entscheidungen stark verschleiern. Beispielsweise ist es denkbar, dass die Nutzung großer Sprachmodelle im Journalismus unausweichlich wird, um im Wettbewerb bestehen zu können, dies aber zugleich, differenzierte, auch sprachlich individuelle, wie progressive Berichterstattung erschwert.

Automatisierung der Arbeitswelt

Objektive Quantifizierung von Leistung
Objektive Quantifizierung von Leistung

Anstatt also weiter über die Summe der langfristigen gesellschaftlichen Auswirkungen der KI zu diskutieren, möchte ich mich mehr auf die unmittelbaren persönlichen Auswirkungen konzentrieren, die fast alle im Kontext ihrer Arbeit betreffen könnten: Arbeitnehmende aber auch Führungspersonal. Aus diesem Blickwinkel und in den damit verbundenen Zeiträumen müssten wir die wirtschaftlichen und politischen Bedingungen als weitgehend festgelegt betrachten. Innerhalb dieses Bezugsrahmens muss das Narrativ der (generativen) KI als ermöglichende, sogar befreiende Technologie kritisch betrachtet werden.

Überraschenderweise werden auf Fachplattformen und in sozialen Medien kaum die qualitativen Verbesserungen von Arbeit durch generative KI thematisiert. Während Chui et al. (2023) für McKinsey generative KI offen als Erreichen der „nächste[n] Produktivitätsschallmauer“ (engl. „next productivity frontier“) bezeichnen, geben sie nicht einmal vor, sich dafür zu interessieren, dass generative KI auch zur Verbesserung der Qualität der Arbeitsbedingungen eingesetzt werden könnte. Selbst angesichts von Berichten, wonach generative KI die untere Qualitätsgrenze der Arbeitsergebnisse anhebt (wovon vor allem die weniger Qualifizierten profitieren) (vgl. z.B. Brynjolfsson et al., 2023), schwelt der Verdacht, dass dies dazu führen wird, dass Arbeitnehmende zunehmend entbehrlicher werden, anstatt zu gerechteren Arbeitsverhältnissen beizutragen. Die Ausrichtung solcher Studien auf die objektive Quantifizierung von Leistung vernachlässigt oft die individuellen Beiträge jedes einzelnen Individuums am Arbeitsplatz und verhindert eine Nuancierung des Werts der Arbeit.

Vielleicht sollten dazu Christoph Dejours' kritische Theorie der Arbeit (2018) herangezogen werden, die sowohl den Nutzen standardisierter Regeln für Betriebsabläufe und Prozesse innerhalb von Organisationen als auch die Notwendigkeit ihrer ständigen Interpretation und flexiblen Auslegung anerkennt. Dejours betrachtet Prozesswissen als idealisierte Abstraktion und die menschliche Arbeit als den Vorgang, dieses Prozesswissen in sinnvolle Praxis zu verwandeln — eine durchaus mit moralischen Werten und persönlicher, subjektiver Perspektive verbundene Aufgabe. Mit generativer KI, so vermute ich, kann nun sogar ein Teil dieser Interpretationsarbeit automatisiert werden. Dies erfordert einen tieferen philosophischen Blick auf die Frage, wie sich dadurch Organisationen und Institutionen in unserer Gesellschaft wandeln werden. Eine stringente Begründung würde den Rahmen dieses Aufsatzes sprengen, doch ich behaupte, dass es zutiefst sinnvoll ist, ein gewisses, aber unbedingt substanzielles Maß an Kontrolle über die Parameter der Ausübung unserer menschlichen Fähigkeiten zu bewahren: Strukturelle Bedingungen wie Effizienz- und Produktivitätsdruck sollten die immateriellen Werte unserer Arbeit nicht unterminieren.

Kybernetische Gesellschaft
Kybernetische Gesellschaft

KI als unvermeidlicher Teil der Gesellschaftsstruktur

Es ist bereits offensichtlich geworden, dass generative KI mehr ist als ein interessantes Spielzeug, das jeden organisatorischen Prozess beschleunigen kann, sei er etwa kreativ, technisch oder administrativ. Aufgrund dieses scheinbar allgegenwärtigen Potenzials haben wirtschaftliche Anreize dazu geführt, dass KI bereits seit längerem nicht nur in speziellen Fachbereichen wie dem Gesundheitswesen und der Robotik zum Einsatz kommt, sondern zu einem strukturellen Bestandteil von immer mehr Bereichen geworden ist und werden wird — beispielhaft sei hier die Kunst oder der Journalismus genannt. Vielleicht scheint es, dass ich hier die Sprache und sogar einen Jargon übernehme, den viele Strategie- und Beratungspapiere pflegen, um die Unausweichlichkeit von KI anzupreisen. Indem ich diese Sichtweise auf die Unvermeidbarkeit von KI betone, möchte ich jedoch auch das signifikante Risiko von KI hervorheben, strukturelle Ungleichheiten zu verschärfen. Indem sie sich auf Iris Marion Youngs (2011) Konzept der strukturellen Ungerechtigkeit berufen, stellen beispielsweise Himmelreich & Lim (2022) die wichtige Frage, ob KI bereits den Status eines „Teils der Gesellschaftsstruktur“ erreicht hat. Ohne eine abschließende Antwort geben zu können, behaupte ich, dass allein das Potenzial generativer KI, subjektiv geleistete interpretative Arbeitsprozesse durch statistisch ermittelte Interpretationen zu ersetzen, ein bedeutender Schritt ist, um KI genau dies zu attestieren — das heißt, KI als Teil der Gesellschaftsstruktur zu begreifen.

Doch es steht uns ja prinzipiell frei, diese Substitution in den Interpretationsvorgängen nicht zu befürworten. Ausgehend von meiner vorherigen Behauptung, dass der wirtschaftliche Druck Arbeitnehmende dazu zwingt, generative KI als Standard-Arbeitswerkzeug zu nutzen, um im Wettbewerb zu bestehen und effizient zum Wirtschaftswachstum beizutragen, habe ich erhebliche Zweifel, dass wir uns diesen gesellschaftlichen Fliehkräften tatsächlich bewusst entgegenstellen können. Kein einzelner großer multinationaler Konzern oder — um einen Gegensatz zu nennen — keine einzelne kommunale Verwaltung wird dafür verantwortlich gemacht werden können, dass wir den Wert, die Vielfalt und vielleicht auch den sinngebenden Inhalt menschlicher Arbeit im Namen der Produktivitätssteigerung schmälern. Dies ist das Wesen dessen, was Young als „strukturelle“ Faktoren bezeichnete, und jede Organisation und jedes Individuum trägt die Verantwortung für die potenzielle Ungerechtigkeit, die sich daraus ergeben könnte.

Aus der Balance geraten?
Aus der Balance geraten?

KI-Konzerne bedrohen Klima und Gesundheit

Bisher habe ich nur angedeutet, wie solche Ungerechtigkeiten aussehen könnten: Eine zunehmend entbehrliche Belegschaft und Machtasymmetrien, die sich verschärfen. Hinzu kommen Effekte aktueller neokolonialer Praktiken bei der Entwicklung generativer KI-Systeme, etwa durch die Auslagerung gesundheitlich und psychisch belastender Tätigkeiten in Länder des globalen Südens (Hao, 2022; Hao & Seetharaman, 2023; Tacheva & Ramasubramanian, 2023) bei gleichzeitiger „Sicherstellung“ ihrer Übereinstimmung mit akzeptierten (sprich: dominanten) moralischen und gesellschaftlichen Normen des globalen Nordens (Ananya, 2024; Nicoletti & Bass, 2023). Hinzu kommen die ökologischen Auswirkungen, etwa den enormen Anstieg im Wasserverbrauch der KI-Firmen von bis zu 34 Prozent (Crawford, 2024). Während die vorgegebene moralische Ausrichtung der bekanntesten großen verfügbaren Sprachmodelle auf die westliche Hemisphäre ausgerichtet ist (Naous et al., 2024; Navigli et al., 2023), zeigen sich die ökologischen Effekte (Heikkilä, 2023) parallel zu anderen Klimarisiken vorwiegend dort, wo die ökonomischen Vorteile nicht erwirtschaftet werden — auch wenn das Potenzial der generativen KI, Klimaeinflüsse zu verringern, noch diskutiert wird  .

I'm sorry, Dave. I'm afraid I can't do that. (HAL)
I'm sorry, Dave. I'm afraid I can't do that. (HAL)

Auf Kosten der Freiheit

Sieht man einmal von Iris Marion Youngs Zurückhaltung bei der Zuweisung von Schuld und Haftung ab, so kann man dem gut informierten Kreis der wirtschaftlichen Nutznießer generativer KI durchaus eine Verantwortung für die Verschärfung struktureller Ungleichheiten zuschreiben, die gewisse Personengruppen tatsächlich weniger frei machen. Im Gegenzug möchte ich alle dazu auffordern, intensiv darüber nachzudenken, ob die persönliche Nutzung generativer KI tatsächlich in dem Sinne befreiend ist, wie ich es eingangs umschrieben habe, oder ob sie eher etwas ist, zu dem man sich gezwungen sieht, etwa aus Angst, in wirtschaftlicher, sozialer oder politischer Hinsicht zurückzubleiben. Oder ist KI nur etwas, das bequem geworden ist und daher völlig harmlos erscheinen mag, oder von dem wir wollen, dass es harmlos ist? Während wir von einigen gesellschaftlichen und technologischen Artefakten schon in strukturellem Umfang derart eingenommen sind, dass es eine echte Härte darstellen würde, diesen zu entsagen, stehen wir bei der Nutzung von KI noch ganz am Anfang. In gewisser Weise sind wir hier noch frei zu entscheiden. Diesbezüglich sollten wir uns daran erinnern, dass unsere Bequemlichkeit auf Kosten der Freiheit anderer gehen kann.

Quellen

Univ.-Prof. Dr.-Ing. Christian Herzog

Christian Herzog versteht sich als transdisziplinärer Wissenschaftler, der technische und geisteswissenschaftliche Perspektive und Expertise verbindet. Ursprünglich studierter Ingenieur im Bereich der Mechatronik, interessierte ihn bereits während seines Promotionsstudiums in der Regelungstechnik an der Technischen Universität Hamburg die soziale und ökologische Verantwortung, die das Ingenieurwesen mit sich bringt. Nach seinem Wechsel an die Universität zu Lübeck professionalisierte er seine Beschäftigung mit den ethischen Fragen im Zusammenhang mit Technik, inkl. eines Fernstudiums der Angewandten Ethik an der Universität Leeds. Derzeit leitet er den Ethical Innovation Hub an der Universität zu Lübeck, eine gemeinsame Arbeitsgruppe des Instituts für Medizinische Elektrotechnik und des Instituts für Medizingeschichte und Wissenschaftsforschung. Seit Juni 2023 ist er Professor für Ethische, Rechtliche und Soziale Aspekte der Künstlichen Intelligenz an der Universität zu Lübeck.