Macht uns KI freier oder schafft sie neue Zwänge und Ungleichheiten?
Wieder einmal ist eine neuartige Technologie verfügbar, die uns von den Fesseln des Gewöhnlichen und Unbedeutenden befreien soll. Von alltäglichen Pflichten entlastet, soll uns Zeit für bedeutungsvollere Tätigkeiten wie kreative Arbeiten oder soziale Interaktion bleiben. Wir gewinnen größeren Freiraum für das tätige Leben. Versprochen wird nicht weniger als eine Technologie, die die „conditio humana“, also die Bedingungen des Menschseins, an sich verbessert.
Ich spreche von generativer künstlicher Intelligenz (KI), die seit der Veröffentlichung des Chatbots ChatGPT durch OpenAI im November 2022 auch einem breiten Publikum bekannt und zugänglich ist. Es gab bereits vergleichbare KI-Anwendungen die Texte, Bilder und andere Inhalte generieren konnten. Dennoch bin ich der Überzeugung, dass das volle (insbesondere wirtschaftliche) Potenzial erst offensichtlich wurde, als OpenAI sich dazu entschied, das Feld mit der Veröffentlichung von ChatGPT zu „disruptieren“ – also eine Technologie zugänglich zu machen, der umwälzende Neuerungen und quasi zerstörerische Kräfte auf konventionelle Angebote zugeschrieben werden. Obwohl Konkurrenten wie Google zu diesem Zeitpunkt bereits ähnlich leistungsfähige KI-Systeme entwickelt hatten, schien das disruptive Potenzial sie zögern zu lassen, diese zu veröffentlichen.
Seit ChatGPT in der Welt ist, gab es eine Flut von Studien, die das Potenzial für soziale Veränderungen und grundlegende Umgestaltungen der Arbeitswelt aufzeigen sollen. Sowie eine Fülle von Prognosen darüber, wozu das alles führen wird, insbesondere, wann die noch bestehenden erheblichen grundlegenden technischen Herausforderungen überwunden werden können, wie etwa die Tendenz der derzeitigen Texte erzeugenden „Large Language Models“, Unwahrheiten zu generieren.
Heilserwartungen an hochautonome KI-Systeme
Manche dieser Vorhersagen sind eng mit dem Streben nach sogenannter „Artificial General Intelligence“ (AGI) verwoben: Dem Ziel eine KI zu entwickeln, die nicht nur eine spezielle Aufgabe erledigen kann, sondern viele verschiedene Dinge lernen und tun kann, ähnlich wie der menschliche Verstand. Die Forschung an diesen hochautonomen KI-Systemen ist mit großen Heilserwartungen verbunden. Mit fast schon religiösem Eifer, vertreten einige die Überzeugung, dass nur eine AGI die Menschheit vor ihrer eigenen Fehlbarkeit retten kann. Eine Fehlbarkeit, die offenbar zu einer sich verschärfenden Klimakrise, anhaltenden Konflikten und damit zu menschlichem Leid führt.
Daraus folgt die Auffassung, dass sich möglichst frei entwickelnder technologischer Fortschritt der entscheidende Hebel für gesellschaftliche Veränderung ist. Das ist ein gefährlicher Ansatz, da er technische Eingriffe in andere Freiheitsdomänen wie dem Individuum, dem sozialen und politischen Miteinander, dem kulturellen und wissenschaftlichen Austausch als erforderlich legitimiert. Während allgemein solche Freiräume aber als normative Grundlage gelten, um globale Krisen anzugehen, scheinen Technologiegläubige sie als nachrangig einzuschätzen.
Algorithmische Entscheidungen beschränken Freiheitsgrade
Dieses Bild der Heilserwartung, das ich gezeichnet habe, ist zugegebenermaßen unfair gegenüber denjenigen, die KI-Technologie als einen Teil der möglichen Lösungen sehen, aber nicht als den einzig wesentlichen. Es ist unfair gegenüber denen, die ihre KI-Agenda nicht einseitig vorantreiben, sondern stattdessen eine ganzheitlichere und integrativere Herangehensweise wählen. Es ist auch unfair gegenüber denjenigen, die seit langem die Auffassung vertreten, dass der Mensch in einem ziemlich weitreichenden Sinne eng mit der Technologie verbunden ist und statt einem Antagonismus zwischen Technik und Mensch eher das unvermeidliche Zusammengehören attestieren (vgl. Hörl, 2015). Ähnlich warnen andere schon lange davor, dass, wenn wir das wirtschaftliche und politische System nicht im Einklang mit dem technologischen Fortschritt betrachten, viele der vielversprechendsten Potenziale des technologischen Fortschritts ungenutzt bleiben könnten (vgl. z.B. van Wynsberghe & Robbins, 2019). So habe ich beispielsweise ein Gedankenexperiment angestellt, bei dem Konzernchefs bei unternehmerischen Entscheidungen auf sogenannte künstliche moralische Agenten zurückgreifen, mit ungewissen Folgen, gerade im jetzigen Frühstadium dieser autonomen Systeme (Herzog, 2021). Dieses Beispiel, das ich damals für überspitzt hielt, ist heute beinahe Realität. Schon damals allerdings konnte ich dieses Szenario mit den ersten Berichten über Unternehmen untermauern, die Software einsetzen, um das Management zu ergänzen oder sogar teilweise zu ersetzen (z.B. Novita, 2019; Oracle & Future Workplace, 2019; Schawbel, 2019).
Mein Punkt ist, dass in unserem derzeitigen Wirtschaftssystem, das auf Angebot und Nachfrage, Wettbewerb und freien Märkten basiert, solche Technologien dazu neigen, Machtungleichheiten zu verschärfen. Denn die Kontrolle über die Nutzung und den Zugang zu diesen Technologien ist oft in den Händen weniger Akteure konzentriert. Dies führt nicht nur auf makrosozialer Ebene dazu, dass sich Macht unverhältnismäßig bei bestimmten Individuen ansammelt und potenziell das demokratische und soziale System bedroht, sondern es ist auch wahrscheinlich, dass sie Individuen in ihrer Entscheidungsfreiheit bezüglich sinnvoller Aufgaben einschränken. Dies betrifft etwa die Entscheidung, eine bestimmte Technologie auf einer mikrosozialen, alltäglichen Ebene zu nutzen oder nicht zu nutzen.
Ich glaube jedoch, dass die Freiheit, diese Entscheidungen zu treffen, sehr stark damit zusammenhängt, in welchen Aufgaben der Einzelne Sinn findet. Einige, wenn nicht viele, wirtschaftlich motivierte und in gewissem Sinne erzwungene Anwendungsfälle generativer KI können die Relevanz dieser Entscheidungen stark verschleiern. Beispielsweise ist es denkbar, dass die Nutzung großer Sprachmodelle im Journalismus unausweichlich wird, um im Wettbewerb bestehen zu können, dies aber zugleich, differenzierte, auch sprachlich individuelle, wie progressive Berichterstattung erschwert.
Automatisierung der Arbeitswelt
Anstatt also weiter über die Summe der langfristigen gesellschaftlichen Auswirkungen der KI zu diskutieren, möchte ich mich mehr auf die unmittelbaren persönlichen Auswirkungen konzentrieren, die fast alle im Kontext ihrer Arbeit betreffen könnten: Arbeitnehmende aber auch Führungspersonal. Aus diesem Blickwinkel und in den damit verbundenen Zeiträumen müssten wir die wirtschaftlichen und politischen Bedingungen als weitgehend festgelegt betrachten. Innerhalb dieses Bezugsrahmens muss das Narrativ der (generativen) KI als ermöglichende, sogar befreiende Technologie kritisch betrachtet werden.
Überraschenderweise werden auf Fachplattformen und in sozialen Medien kaum die qualitativen Verbesserungen von Arbeit durch generative KI thematisiert. Während Chui et al. (2023) für McKinsey generative KI offen als Erreichen der „nächste[n] Produktivitätsschallmauer“ (engl. „next productivity frontier“) bezeichnen, geben sie nicht einmal vor, sich dafür zu interessieren, dass generative KI auch zur Verbesserung der Qualität der Arbeitsbedingungen eingesetzt werden könnte. Selbst angesichts von Berichten, wonach generative KI die untere Qualitätsgrenze der Arbeitsergebnisse anhebt (wovon vor allem die weniger Qualifizierten profitieren) (vgl. z.B. Brynjolfsson et al., 2023), schwelt der Verdacht, dass dies dazu führen wird, dass Arbeitnehmende zunehmend entbehrlicher werden, anstatt zu gerechteren Arbeitsverhältnissen beizutragen. Die Ausrichtung solcher Studien auf die objektive Quantifizierung von Leistung vernachlässigt oft die individuellen Beiträge jedes einzelnen Individuums am Arbeitsplatz und verhindert eine Nuancierung des Werts der Arbeit.
Vielleicht sollten dazu Christoph Dejours' kritische Theorie der Arbeit (2018) herangezogen werden, die sowohl den Nutzen standardisierter Regeln für Betriebsabläufe und Prozesse innerhalb von Organisationen als auch die Notwendigkeit ihrer ständigen Interpretation und flexiblen Auslegung anerkennt. Dejours betrachtet Prozesswissen als idealisierte Abstraktion und die menschliche Arbeit als den Vorgang, dieses Prozesswissen in sinnvolle Praxis zu verwandeln — eine durchaus mit moralischen Werten und persönlicher, subjektiver Perspektive verbundene Aufgabe. Mit generativer KI, so vermute ich, kann nun sogar ein Teil dieser Interpretationsarbeit automatisiert werden. Dies erfordert einen tieferen philosophischen Blick auf die Frage, wie sich dadurch Organisationen und Institutionen in unserer Gesellschaft wandeln werden. Eine stringente Begründung würde den Rahmen dieses Aufsatzes sprengen, doch ich behaupte, dass es zutiefst sinnvoll ist, ein gewisses, aber unbedingt substanzielles Maß an Kontrolle über die Parameter der Ausübung unserer menschlichen Fähigkeiten zu bewahren: Strukturelle Bedingungen wie Effizienz- und Produktivitätsdruck sollten die immateriellen Werte unserer Arbeit nicht unterminieren.
KI als unvermeidlicher Teil der Gesellschaftsstruktur
Es ist bereits offensichtlich geworden, dass generative KI mehr ist als ein interessantes Spielzeug, das jeden organisatorischen Prozess beschleunigen kann, sei er etwa kreativ, technisch oder administrativ. Aufgrund dieses scheinbar allgegenwärtigen Potenzials haben wirtschaftliche Anreize dazu geführt, dass KI bereits seit längerem nicht nur in speziellen Fachbereichen wie dem Gesundheitswesen und der Robotik zum Einsatz kommt, sondern zu einem strukturellen Bestandteil von immer mehr Bereichen geworden ist und werden wird — beispielhaft sei hier die Kunst oder der Journalismus genannt. Vielleicht scheint es, dass ich hier die Sprache und sogar einen Jargon übernehme, den viele Strategie- und Beratungspapiere pflegen, um die Unausweichlichkeit von KI anzupreisen. Indem ich diese Sichtweise auf die Unvermeidbarkeit von KI betone, möchte ich jedoch auch das signifikante Risiko von KI hervorheben, strukturelle Ungleichheiten zu verschärfen. Indem sie sich auf Iris Marion Youngs (2011) Konzept der strukturellen Ungerechtigkeit berufen, stellen beispielsweise Himmelreich & Lim (2022) die wichtige Frage, ob KI bereits den Status eines „Teils der Gesellschaftsstruktur“ erreicht hat. Ohne eine abschließende Antwort geben zu können, behaupte ich, dass allein das Potenzial generativer KI, subjektiv geleistete interpretative Arbeitsprozesse durch statistisch ermittelte Interpretationen zu ersetzen, ein bedeutender Schritt ist, um KI genau dies zu attestieren — das heißt, KI als Teil der Gesellschaftsstruktur zu begreifen.
Doch es steht uns ja prinzipiell frei, diese Substitution in den Interpretationsvorgängen nicht zu befürworten. Ausgehend von meiner vorherigen Behauptung, dass der wirtschaftliche Druck Arbeitnehmende dazu zwingt, generative KI als Standard-Arbeitswerkzeug zu nutzen, um im Wettbewerb zu bestehen und effizient zum Wirtschaftswachstum beizutragen, habe ich erhebliche Zweifel, dass wir uns diesen gesellschaftlichen Fliehkräften tatsächlich bewusst entgegenstellen können. Kein einzelner großer multinationaler Konzern oder — um einen Gegensatz zu nennen — keine einzelne kommunale Verwaltung wird dafür verantwortlich gemacht werden können, dass wir den Wert, die Vielfalt und vielleicht auch den sinngebenden Inhalt menschlicher Arbeit im Namen der Produktivitätssteigerung schmälern. Dies ist das Wesen dessen, was Young als „strukturelle“ Faktoren bezeichnete, und jede Organisation und jedes Individuum trägt die Verantwortung für die potenzielle Ungerechtigkeit, die sich daraus ergeben könnte.
KI-Konzerne bedrohen Klima und Gesundheit
Bisher habe ich nur angedeutet, wie solche Ungerechtigkeiten aussehen könnten: Eine zunehmend entbehrliche Belegschaft und Machtasymmetrien, die sich verschärfen. Hinzu kommen Effekte aktueller neokolonialer Praktiken bei der Entwicklung generativer KI-Systeme, etwa durch die Auslagerung gesundheitlich und psychisch belastender Tätigkeiten in Länder des globalen Südens (Hao, 2022; Hao & Seetharaman, 2023; Tacheva & Ramasubramanian, 2023) bei gleichzeitiger „Sicherstellung“ ihrer Übereinstimmung mit akzeptierten (sprich: dominanten) moralischen und gesellschaftlichen Normen des globalen Nordens (Ananya, 2024; Nicoletti & Bass, 2023). Hinzu kommen die ökologischen Auswirkungen, etwa den enormen Anstieg im Wasserverbrauch der KI-Firmen von bis zu 34 Prozent (Crawford, 2024). Während die vorgegebene moralische Ausrichtung der bekanntesten großen verfügbaren Sprachmodelle auf die westliche Hemisphäre ausgerichtet ist (Naous et al., 2024; Navigli et al., 2023), zeigen sich die ökologischen Effekte (Heikkilä, 2023) parallel zu anderen Klimarisiken vorwiegend dort, wo die ökonomischen Vorteile nicht erwirtschaftet werden — auch wenn das Potenzial der generativen KI, Klimaeinflüsse zu verringern, noch diskutiert wird .
Auf Kosten der Freiheit
Sieht man einmal von Iris Marion Youngs Zurückhaltung bei der Zuweisung von Schuld und Haftung ab, so kann man dem gut informierten Kreis der wirtschaftlichen Nutznießer generativer KI durchaus eine Verantwortung für die Verschärfung struktureller Ungleichheiten zuschreiben, die gewisse Personengruppen tatsächlich weniger frei machen. Im Gegenzug möchte ich alle dazu auffordern, intensiv darüber nachzudenken, ob die persönliche Nutzung generativer KI tatsächlich in dem Sinne befreiend ist, wie ich es eingangs umschrieben habe, oder ob sie eher etwas ist, zu dem man sich gezwungen sieht, etwa aus Angst, in wirtschaftlicher, sozialer oder politischer Hinsicht zurückzubleiben. Oder ist KI nur etwas, das bequem geworden ist und daher völlig harmlos erscheinen mag, oder von dem wir wollen, dass es harmlos ist? Während wir von einigen gesellschaftlichen und technologischen Artefakten schon in strukturellem Umfang derart eingenommen sind, dass es eine echte Härte darstellen würde, diesen zu entsagen, stehen wir bei der Nutzung von KI noch ganz am Anfang. In gewisser Weise sind wir hier noch frei zu entscheiden. Diesbezüglich sollten wir uns daran erinnern, dass unsere Bequemlichkeit auf Kosten der Freiheit anderer gehen kann.
Quellen
- Ananya. (2024). AI image generators often give racist and sexist results: Can they be fixed? Nature, 627(8005), 722–725. doi.org/10.1038/d41586-024-00674-9
- Brynjolfsson, E., Li, D., & Raymond, L. (2023). Generative AI at Work. https://danielle-li.github.io/assets/docs/GenerativeAIatWork.pdf (Abrufdatum 02.07.2024)
- Chui, M., Hazan, E., Roberts, R., Singla, A., Smaje, K., Sukharevsky, A., Yee, L., & Zemmel, R. (2023). The economic potential of generative AI — The next productivity frontier. McKinsey & Company.
- Crawford, K. (2024). Generative AI’s environmental costs are soaring—And mostly secret. Nature, 626(8000), 693–693. doi.org/10.1038/d41586-024-00478-x
- Dejours, C. (Ed.). (2018). The return of work in critical theory: Self, society, politics. Columbia University Press.
- Hao, K. (2022, April 19). Artificial intelligence is creating a new colonial world order. MIT Technology Review. https://www.technologyreview.com/2022/04/19/1049592/artificial-intelligence-colonialism/ (Abrufdatum 02.07.2024)
- Hao, K., & Seetharaman, D. (2023, July 24). Cleaning Up ChatGPT Takes Heavy Toll on Human Workers. The Wall Street Journal. https://www.wsj.com/articles/chatgpt-openai-content-abusive-sexually-explicit-harassment-kenya-workers-on-human-workers-cf191483 (Abrufdatum 02.07.2024)
- Heikkilä, M. (2023, December 5). AI’s carbon footprint is bigger than you think. MIT Technology Review. https://www.technologyreview.com/2023/12/05/1084417/ais-carbon-footprint-is-bigger-than-you-think/ (Abrufdatum 02.07.2024)
- Herzog, C. (2021). Three Risks That Caution Against a Premature Implementation of Artificial Moral Agents for Practical and Economical Use. Science and Engineering Ethics, 27(1), 3. doi.org/10.1007/s11948-021-00283-z
- Himmelreich, J., & Lim, D. (2022). AI and Structural Injustice: Foundations for Equity, Values, and Responsibility. In J. B. Bullock, Y.-C. Chen, J. Himmelreich, V. M. Hudson, A. Korinek, M. M. Young, & B. Zhang (Eds.), The Oxford Handbook of AI Governance (1st ed.). Oxford University Press. doi.org/10.1093/oxfordhb/9780197579329.013.13
- Hörl, E. (2015). The Technological Condition. Parrhesia, 22, 1–15.
- Naous, T., Ryan, M. J., Ritter, A., & Xu, W. (2024). Having Beer after Prayer? Measuring Cultural Bias in Large Language Models (arXiv:2305.14456). arXiv. arxiv.org/abs/2305.14456
- Navigli, R., Conia, S., & Ross, B. (2023). Biases in Large Language Models: Origins, Inventory, and Discussion. Journal of Data and Information Quality, 15(2), 1–21. doi.org/10.1145/3597307
- Nicoletti, L., & Bass, D. (2023). Humans are Biased. Generative AI is Even Worse. Bloomberg Technology + Equality. https://www.bloomberg.com/graphics/2023-generative-ai-bias/ (Abrufdatum 02.07.2024)
- Novita, N. R. (2019, August 20). Can AI or robots replace managers? The Jakarta Post. https://www.thejakartapost.com/academia/2019/08/20/can-ai-or-robots-replace-managers.html (Abrufdatum 02.07.2024)
- Oracle & Future Workplace. (2019). New Study: 64% of People Trust a Robot More Than Their Manager. https://www.oracle.com/corporate/pressrelease/robots-at-work-101519.html (Abrufdatum 02.07.2024)
- Schawbel, D. (2019). How artificial intelligence is redefining the role of manager. World Economic Forum.
- Tacheva, J., & Ramasubramanian, S. (2023). AI Empire: Unraveling the interlocking systems of oppression in generative AI’s global order. Big Data & Society, 10(2), 20539517231219241. doi.org/10.1177/20539517231219241
- Tomlinson, B., Black, R. W., Patterson, D. J., & Torrance, A. W. (2024). The carbon emissions of writing and illustrating are lower for AI than for humans. Scientific Reports, 14(1), 3732. doi.org/10.1038/s41598-024-54271-x
- van Wynsberghe, A., & Robbins, S. (2019). Critiquing the Reasons for Making Artificial Moral Agents. Science and Engineering Ethics, 25(3), 719–735. doi.org/10.1007/s11948-018-0030-8
- Young, I. M. (2011). Responsibility for justice. Oxford University Press.