Forschung###Publikationen###Essay: Der Einsatz künstlicher Intelligenz zur…

Der Einsatz künstlicher Intelligenz zur Erschaffung digitaler Zwillinge als Angriff auf die Vielfalt

Befürworter generativer oder agentischer KI unter Verwendung digitaler Zwillinge versprechen Teilhabe und Inklusion. Jedoch birgt die Technologie das Risiko, Vielfalt, Debattenkultur und Dissens einzuschränken und Machtungleichgewichte zu verstärken.
Essay von Christian Herzog 25. Oktober 2025

Spieglein, Spieglein an der Wand, du bist doch nur ein Modell, das sich statistisch erfand.
Spieglein, Spieglein an der Wand, du bist doch nur ein Modell, das sich statistisch erfand.

Der Begriff des Digitalen Zwillings

Der Begriff des digitalen Zwillings ist umstritten und visionäres Ziel zugleich. In der Medizin sollen etwa physiologische Phänomene derart exakt abgebildet werden, dass In-Silico-Versuche möglich werden (vgl. Portela et al., 2025). Städte beispielsweise sollen derart detailliert modelliert werden, dass Stadtplanungen digital optimiert werden können (Batty, 2024). Wegen ihrer Allgegenwart wird kritisiert, dass „digitale Zwillinge“ eine Modeerscheinung seien, da sich dahinter meist nur komplexe mathematische Modelle verbergen.

Dennoch sind digitale Zwillinge immer greifbarer geworden. KI Begleiter (AI Companions) sind über Anbieter wie Replika (2025) verfügbar, wobei mit sozialer Interaktion und Fürsorge geworben wird. Hier könnte von digitalen Zwillingen als fiktiven, nach eigenen Vorstellungen parametrierten Personen gesprochen werden.

Die Webseiten derartiger Systeme sind voller Anthropomorphismen, das heißt, den Systemen werden menschliche Eigenschaften zugeschrieben. Diese scheinbaren Qualitäten könnten auch so von vielen verstanden werden. Derartige Sichtweisen auf wie auch wissenschaftliche Berichte über die Systeme (beispielsweise Ayers et al., 2023) beruhen jedoch meist darauf, dass Intersubjektivität sowie Relationalität unberücksichtigt bleiben. So kann eine Aussage empathisch erscheinen (performative Empathie), sie lässt jedoch nicht auf tatsächlich empfundene Empathie schließen. Letztere könnte darin bestehen, dass ein intentionaler Akt den Zugang zum Erleben des Gegenübers ermöglicht (vgl. Van Dijke et al., 2020), was zentral für positive Effekte von Therapie oder sozialer Interaktion ist.

Digitale Zwillinge in der Praxis

Am 9. Oktober 2025 berichtete der Deutschlandfunk über den CEO des Logistikkonzerns Seifert, der sich mittels KI einen virtuellen Doppelgänger erschaffen lassen hat. Die Idee besteht in einem Replikat, das das Expertenwissen des CEOs Mitarbeitenden per Konversationsagenten zugänglich machen soll. Auch Claus Hammer (2025) berichtet auf LinkedIn über Kai Henrik Müller, CEO von Experience One, der sich digital „klonen“ lassen hat, und begründet dies mit Druck zur Rationalisierung (Schallenberger, 2023). Da Personal in der Chefetage am teuersten sei, könne dort effektiv gespart werden. Dies bestätigt Befürchtungen, dass KI Kluften vergrößern könne: Zwischen Laien und Fachleuten (Brynjolfsson et al., 2025) oder Arm und Reich (Alonso et al., 2020). Wenn die Automatisierung von Routinetätigkeiten zu teuer (Frey & Osborne, 2017) und die KI-Unterstützung von Managementarbeit möglich wird (Frey & Osborne, 2023), kann dies zu vielen leicht austauschbaren Arbeitskräften führen und wenigen auf der Entscheidungsebene.

Aber wozu führt der Einsatz von digitalen Zwillingen in der Wissens- und Managementarbeit? Sind Befürchtungen über den Verlust von Vielfalt berechtigt oder gibt es auch positive Szenarien?

Argumente für Agentische KI

Digitale Zwillinge laufen zunehmend unter dem Begriff agentische KI. Die Idee wurde 2018 mit Google Duplex öffentlichkeitswirksam präsentiert (Chen & Metz, 2019). Sundar Pichai ließ etwa eine Reservierung per Anruf der KI tätigen. Auch wenn derartige Nutzungen noch nicht weit verbreitet sind, ist das Klonen der Stimme oder die Generierung täuschend echter Videos bereits möglich. Diese Anwendungen werden nicht nur wegen ihres Manipulationspotenzials problematisiert, sondern auch als Wege angepriesen, die Teilhabe erhalten (vgl. Apple Machine Learning Research, 2023), etwa im Fall eines Verlusts der eigenen Sprachfähigkeit.

Meist werden jedoch die durch agentische KI möglichen Effizienzsteigerungen hervorgehoben. Eine Studie des Harvard Business Reviews bestätigt, dass KI im Management kompetitiv sein kann (Mudassir et al., 2024). Die Studie verglich die „Performance“ unter ‚realweltlichen Bedingungen‘ mit menschlichen Geschäftsführungen. Die Autoren konstatieren, dass KI-Agenten eine gute Ergänzung für Analysen seien, aber Einschätzungen, Empathie und ethische Fragen den Menschen zu überlassen seien. „The future of leadership is hybrid“.

Die Anwendungen gehen über die eines Sparringspartners der CEOs hinaus. So sollen sich die CEOs der Firmen Klarna und Zoom in Meetings durch KI vertreten lassen haben. Claus Hammer sieht in dieser Skalierbarkeit einen massiven Vorteil. Schließlich könne ein CEO nicht gleichzeitig auf alle Fragen eingehen. Hammer beschreibt dies als „Demokratisierung von Führungswissen“, durch die Mitarbeitende Zugang zum Fachwissen hätten, welches auch für folgende Generationen erhalten bliebe.

 Illusion der mannigfaltigen Schöpfung
Illusion der mannigfaltigen Schöpfung

KI wider die Vielfalt?

Neben Anreizen für Effizienz und ‚Demokratisierung‘ – vereinfacht als ‚Verfügbarmachung‘ interpretiert – scheinen Vorteile diverser Führungsstrukturen in den Hintergrund zu treten. Vielleicht sind dies Zeichen unserer Zeit, in der einzelne Verantwortungtragende hinsichtlich Expertise und Bedeutung massiv überhöht werden (vgl. Brown, 2018). Die Geschichte zeigt, welche Folgen Machtkonzentration haben kann. Rainer Mühlhoff sieht hier vor allem die Neigung von KI-Hilfsmitteln, faschistoide Tendenzen unterstützen zu können (Mühlhoff, 2025).

Bereits 2021 verwendete ich das Gedankenexperiment eines digitalen Zwillings der Geschäftsführung, um darzulegen, dass der Einsatz von KI-Agenten zur Replikation eigener Entscheidungspräferenzen aufgrund Machtkonzentration und Erschwerung von Dissens moralisch verwerflich ist (Herzog, 2021). Mein Argument entwickelte sich aus der Auseinandersetzung mit der Maschinenethik. Diese Forschung verfiel der Annahme, dass überlegenes computergestütztes Entscheidungsverhalten gemäß moralischen Idealen möglich sei. Allerdings muss zu dieser idealisierten Zielvision auch ein realistischer Weg gezeichnet werden können, wie diese zu erreichen sei. Für wahrscheinlicher hielt ich, dass unausgereifte Systeme ihren Weg in die Anwendung finden, weil sie Partikularinteressen nützen.

Für einige Vertreter:innen der Maschinenethik wäre eine KI-Geschäftsführung wünschenswert, weil theoretisch überlegen. Wären die Ziele des Feldes erreicht, könnte sie die fairsten Entscheidungen treffen. Dass eine solche Entscheidungslogik nur eine unter vielen ist, darüber hinaus Einzelinteressen nicht fehlerfrei ermittelbar sind, wird in dieser Idealisierung vernachlässigt.

Wo der virtuelle Draht zum CEO als Demokratisierung von Expertise durch Ausschaltung von Hierarchien verstanden wird, findet tatsächlich eine direktere Verbindung zwischen der entscheidungsmächtigsten und vulnerabelsten Ebene statt. Die wohl wahrscheinliche Konsequenz wäre, dass die ausführende Ebene vor allem eins tun wird: folgen. Es ist bekannt, dass flache Hierarchien leicht zu impliziten Hierarchien, Überlastung und Verantwortungsdiffusion führen (Foss & Klein, 2023). Ein KI-Replikat des CEOs ist nicht die Lösung für demokratischere Arbeitsprozesse (vgl. Ferreras et al., 2025), sondern vor allem Zentralisierung von Macht.

Als Elon Musk via E-Mail Selbstberichte von US-Verwaltungsangestellten einforderte, titelte ‚The Independent‘, dass KI zur Auswertung genutzt werden könnte (Baio, 2025). Auch wenn Musk dementierte: Warum auf Treue entlang Hierarchien setzen, wenn technisch wenige Menschen Maßnahmen durchsetzen können. Neu sind die Qualitäten der Hilfsmittel: Zum einen ermöglicht KI durch Parallelisierung Skaleneffekte. Damit verwoben sind zeitliche Entgrenzung und Beschleunigung. Digitale Zwillinge arbeiten nachts, parallel und schneller. Die Vorteile hat Musk erkannt: „Very few in the bureaucracy actually work the weekend, so it’s like the opposing team just leaves the field for 2 days!”

Optimierte Vergeblichkeit, die Sisyphos-Effizienz.
Optimierte Vergeblichkeit, die Sisyphos-Effizienz.

Für eine Wertschätzung ‚ineffizienter‘ Vielfalt

Das Potenzial künstlicher Intelligenz als problematisches Machtinstrument ist vorhanden. Es ist wichtig, die Chancen der KI nicht unerwähnt zu lassen. In der Medizin sind Fragen nach Teilhabe und Pluralität wichtig (vgl. Herzog & Branford, 2025), die Vorteile der KI erscheinen hier aber derart stark, dass es mehr um das ‚Wie‘ als um ein ‚Ob‘ gehen mag. Im Kontext digitaler Teilhabe gibt es Angebote für die Übersetzung von Webseiten in Leichte Sprache.[1] Auch hier gibt es Diskussionsbedarf zur Verantwortungsübernahme, aber der Impuls ist klar: Mehr Teilhabe für eine inklusivere Gesellschaft.

Teilhabe ist jedoch selten effizient. Effizient soll sein, die Eskalation über Hierarchieebenen unnötig zu machen. Dabei ist bei der Übertragung von Teilverantwortungen nicht zu erwarten, dass Maßgaben des CEOs im Stile einer ‚Stillen Post‘ bis zur Unkenntlichkeit verändert werden. Stattdessen gibt die Verantwortungsübertragung die Möglichkeit, Anordnungen nach eigenen Wertmaßstäben zu interpretieren, zu spezifizieren oder abzulehnen. Nach Dejours (2018) steckt ein Wert menschlicher Arbeit in diesen Interpretationsprozessen, die an Gegebenheiten angepasst werden müssen. Wenngleich dieser Gestaltungsspielraum im Sinne einer echten Demokratisierung zumeist nicht ausreicht, besteht auch in konservativen Hierarchien die Möglichkeit des Widerspruchs und pluralen Gestaltens – umso mehr, wenn Räume geboten werden, obere Hierarchieebenen herauszufordern.

Vielfalt in Entscheidungsstrukturen kann als Bollwerk gegen Machtzentralisierung dienen. Sie ist im Sinne einer Prävention ethischer Risiken effektiv. Übrigens entschieden sich die menschlichen CEOs in der Studie des Harvard Business Reviews mehrheitlich gegen große Risiken und für Flexibilität sowie nachhaltiges Wachstum. Dahingegen optimierte die KI auf aggressive Expansionsmaßnahmen, die im Falle unvorhergesehener Ereignisse versagten.

Ein Argument für Vielfalt als Wert an sich ist tragfähiger, zumal sich ein Rechtfertigungsdruck durch die scheinbare Ineffizienz von Pluralismus einstellt. Dies ist Ausgangspunkt einer relationalen Ethik (Branford & Herzog, 2025; Geissner, 1995), die den Einbezug fordert.

Das Ausblenden realweltlicher Bedingungen hat jedoch Auswirkungen auf Analyseergebnisse. Diese dürfen hier nicht auf idealisierten Annahmen beruhen – so ist klar, dass die Vielfalt der Perspektiven nicht an ein KI-System delegiert werden darf. Stattdessen bedarf es Strukturen zur Befähigung zur freien Willensäußerung.

Was wir jedoch in der Umsetzung der Berücksichtigung moralischer Werte in generativer KI erleben, ist eine limitierende Umsetzung anhand des Human Feedback Reinforcement Learnings (Muldoon et al., 2024). Zwar sind viele Menschen an der Bewertung der Ausgaben generativer KI beteiligt, folgen jedoch partikulären kulturellen Vorstellungen (Atari et al., 2023) und sind durch Großunternehmen geleitet statt demokratisch legitimiert.

Mit Geistesstärke, wähnt man stolz, formt man die Welt aus Datenholz.
Mit Geistesstärke, wähnt man stolz, formt man die Welt aus Datenholz.

Ein Plädoyer für Verweigerung

Alternative Ansätze wären nicht undenkbar, jedoch meist aufwändiger. Sollen KI-Systeme aber zu Effizienzsteigerungen eingesetzt werden, verbieten sich große Aufwände. Zur Erkenntnis des Potenzials künstlicher Intelligenz als Machtinstrument gesellt sich so die Einsicht, dass Entwicklungsansätze die Unterminierung von Vielfalt zum Programm erheben.

In Führungsstrukturen spielt Vielfalt eine regulierende, Risiko verringernde und kreative Rolle. Die Vielfalt der Perspektive und Werte ist ein Wert an sich. Strukturell verankert sein muss die Möglichkeit des Dissens. Wenn wir uns fragen, wo eine Möglichkeit bleibt, diese Forderung zu stellen, wäre eine Konkrete, die Zusammenarbeit mit Individuen, die sich per KI klonen lassen, zu verweigern.

Quellen

  • Alonso, C., Berg, A., Kothari, S., Papageorgiou, C., & Rehman, S. (2020). Will the AI Revolution Cause a Great Divergence? (No. WP/20/184). International Monetary Fund.
  • Apple Machine Learning Research. (2023). Advancing Speech Accessibility with Personal Voice. Apple Machine Learning Research.
  • Atari, M., Xue, M. J., Park, P. S., Blasi, D. E., & Henrich, J. (2023). Which Humans? [Preprint]. PsyArXiv.
  • Ayers, J. W., et al. (2023). Comparing Physician and Artificial Intelligence Chatbot Responses. JAMA Internal Medicine, 183(6), 589.
  • Baio, A. (2025, February 25). DOGE could use AI to assess federal employees’s responses. The Independent.
  • Bareis, J., Roßmann, M., & Bordignon, F. (2023). Technology hype. TATuP, 32(3), 10–71.
  • Batty, M. (2024). Digital twins in city planning. Nature Computational Science, 4(3), 192–199.
  • Branford, J., & Herzog, C. (2025). Relational AI Ethics. In A Relational Ethics for AI and Robots. Springer.
  • Brown, A. (2018). Der Mythos vom starken Führer. Propyläen.
  • Brynjolfsson, E., Chandar, B., & Chen, R. (2025). Canaries in the Coal Mine? Stanford Digital Economy Lab Working Paper.
  • Chen, B. X., & Metz, C. (2019, May 22). Google’s Duplex Uses A.I. to Mimic Humans. The New York Times.
  • Dejours, C. (Ed.). (2018). The return of work in critical theory. Columbia University Press.
  • Ferreras, I., Battilana, J., & Méda, D. (Eds.). (2025). Die Demokratisierung der Arbeit. transcript Verlag.
  • Foss, N. J., & Klein, P. G. (2023). We need to reconceive managerial authority. MIT Sloan Management Review, 64(3), 56–61.
  • Frey, C. B., & Osborne, M. (2023). Generative AI and the Future of Work.
  • Frey, C. B., & Osborne, M. A. (2017). The future of employment. Technological Forecasting and Social Change, 114, 254–280.
  • Geissner, H. K. (1995). Über dialogische Ethik. Rhetorica, 13(4), 443–453.
  • Hammer, C. (2025, October 13). KI als Chef?. LinkedIn.
  • Herzog, C. (2021). Three Risks That Caution Against a Premature Implementation of Artificial Moral Agents. Science and Engineering Ethics, 27(1), 3.
  • Herzog, C., & Branford, J. (2025). Relational Ethics and Structural Epistemic Injustice of AI in Medicine. Philosophy & Technology, 38(160).
  • Mudassir, H., Munir, K., Ansari, S., & Zahra, A. (2024). AI Can (Mostly) Outperform Human CEOs. Harvard Business Review.
  • Mühlhoff, R. (2025). Künstliche Intelligenz und der neue Faschismus. Reclam.
  • Muldoon, J., Graham, M., & Cant, C. (2024). Feeding the machine. Canongate.
  • Portela, R. M. C., et al. (2025). Wann ist eine in silico-Darstellung ein digitaler Zwilling? In Digitale Zwillinge (pp. 39–61). Springer.
  • Replika. (2025). replika.com
  • Schallenberger, L. (2023, November 23). Dieser CEO hat sich digital geklont. Business Insider.
  • Van Dijke, J., et al. (2020). Towards a relational conceptualization of empathy. Nursing Philosophy, 21(3), e12297.
     
  1. Siehe z.B. participaite.de, aufgerufen am 7. November 2025

Univ.-Prof. Dr.-Ing. Christian Herzog

Ich verstehe mich als transdisziplinärer Wissenschaftler, der technische und geisteswissenschaftliche Perspektive und Expertise verbindet. Ursprünglich studierter Ingenieur im Bereich der Mechatronik, interessierte mich bereits während meines Promotionsstudiums in der Regelungstechnik an der Technischen Universität Hamburg die soziale und ökologische Verantwortung, die das Ingenieurwesen mit sich bringt. Nach meinem Wechsel an die Universität zu Lübeck professionalisierte ich meine Beschäftigung mit den ethischen Fragen im Zusammenhang mit Technik, inkl. eines Fernstudiums der Angewandten Ethik an der Universität Leeds. Derzeit leite ich den Ethical Innovation Hub an der Universität zu Lübeck, eine gemeinsame Arbeitsgruppe des Instituts für Medizinische Elektrotechnik und des Instituts für Medizingeschichte und Wissenschaftsforschung. Seit Juni 2023 bin ich Professor für Ethische, Rechtliche und Soziale Aspekte der Künstlichen Intelligenz an der Universität zu Lübeck.