Gerechte Künstliche Intelligenz

Methoden der Künstlichen Intelligenz (KI) finden breite Anwendung in Automatisierungsprozessen; und das sowohl in privatwirtschaftlichen, öffentlichen und individuellen Bereichen. Können wir sicherstellen, dass KI-Systeme gerechte Entscheidungen treffen?
Essay von Alexander Steen, 25. November 2022

Träumen Roboter von Gerechtigkeit? Eine KI wie „Stable Diffusion“ versucht zumindest sich Gerechtigkeit zu imaginieren, wie diese Abbildung zeigt. Der Deep-Learning-Text-zu-Bild-Generator wurde an der LMU München zusammen mit Stability AI entwickelt.
Träumen Roboter von Gerechtigkeit? Eine KI wie „Stable Diffusion“ versucht zumindest sich Gerechtigkeit zu imaginieren, wie diese für dieses Essay generierte Abbildung zeigt. Der Deep-Learning-Text-zu-Bild-Generator wurde an der LMU München zusammen mit der britischen Firma Stability AI entwickelt.

Autonome Systeme, insbesondere basierend auf KI-Methoden (Künstliche Intelligenz; englisch AI, artificial intelligence), bestimmen bereits heute viele Bereiche des täglichen Lebens. Als autonomes System kann jeder automatisierte Prozess oder jede automatisierte Komponente komplexerer Strukturen angesehen werden: Während eines Suchvorgangs mit einer Suchmaschine werden – autonom – potenzielle Treffer selektiert und priorisiert. In Onlineshops werden aus der Menge aller angebotenen Produkte gewisse Produkte zuerst angezeigt. In sozialen Medien werden einer konkreten Benutzerin einige Beiträge angezeigt, andere aber nicht oder nur nach expliziter Suche. KI-Systeme sollen auf Internetplattformen zudem automatisiert Falschinformationen (Fake-News) und Hassnachrichten (Hate-Speech) erkennen und entfernen. Im Rahmen der Prüfung der Kreditwürdigkeit eines (potenziellen) Bankkunden können KI-Systeme eine Bewertung abgeben und damit die letztendliche Entscheidung der Bank signifikant beeinflussen. Verdächtige Zahlungsströme im Finanzbereich sollen ebenfalls automatisiert überwacht werden.

Kreditwürdig oder nicht? Oft entscheidet eine automatisierte Maschine (KI-generierte Abbildung).
Kreditwürdig oder nicht? Oft entscheidet eine automatisierte Maschine (KI-generierte Abbildung, DALL·E).

Das frühe Feld der KI wurde maßgeblich in den 1950er- und 1960er-Jahren geprägt. Erste KI-Systeme waren etwa sogenannte Expertensysteme, die explizit kodiertes Wissen als Regelsystem darstellen und automatisiert anwenden (zum Beispiel Klassifizierungs- oder Planungsysteme). Das Feld der KI versprach viel, konnte aber in folgenden Jahren wenig große Durchbrüche erzielen. Nach dieser Enttäuschung und dem dadurch ausgelösten „KI-Winter“ wurden dann seit den 1990-ern und 2000-ern durch immer leistungsfähigere Computer-Hardware insbesondere Lern-basierte Verfahren (Machine Learning) erfolgreich und erzielten erstaunliche Ergebnisse (zum Beispiel in der Echtzeit-Erkennung von Objekten in Videos oder Fotos oder der Verarbeitung natürlicher Sprache). Diese Verfahren funktionieren nach dem Prinzip des induktiven Schließens – also aus vielen einzelnen Beobachtungen möglichst allgemeingültige Verhaltensmuster zu produzieren, um automatisiert Entscheidungen zu treffen. Viele KI-Systeme basieren heutzutage auf genau diesem Prinzip. Können wir ihren Entscheidungen vertrauen, „lernen“ sie gegebenenfalls etwas Falsches? Sind sie gerecht?

Können KI-Systeme gerecht handeln? Die Debatte ist von utopischen wie dystopischen Vorstellungen geprägt (KI-generierte Abbildung).
Können KI-Systeme gerecht handeln? Die Debatte ist von utopischen wie dystopischen Vorstellungen geprägt (KI-generierte Abbildung, DALL·E).

Gerechtigkeit als zentraler Aspekt sicherer KI

Das Schlagwort „sichere KI“ (engl. trusted AI) bezeichnet Bestrebungen, KI-Methoden und autonome Systeme, die diese Methoden nutzen, so zu gestalten, dass unter anderem (ungewollte) Gefahren oder Fehlfunktionen, die durch den Einsatz dieser Systeme entstehen könnten, von vornherein ausgeschlossen werden oder sehr unwahrscheinlich sind.

Eine ganz konkrete und unmittelbare Gefahr geht zum Beispiel von autonomen (letalen) Waffensystemen aus. Ich bin zwar persönlich davon überzeugt, dass der Einsatz von autonomen letalen Waffensystemen prinzipiell verboten sein sollte; ebenso sinnig klingt es aber, diese Systeme so zu konstruieren, dass immerhin keine unbeteiligten Parteien (ungewollt) geschädigt werden oder andere gefährdende Nebeneffekte eintreten. Aber auch andere KI-Systeme können eine Gefahr für den gesamtgesellschaftlichen Frieden darstellen, und zwar dann, wenn diese Systeme nicht entsprechend unserer freiheitlich-demokratischen Grundordnung agieren und allgemein anerkannte gesellschaftliche Grundwerte missachten. So ist ein zentraler Aspekt von nachhaltig sicherer und vertrauenswürdiger KI, dass autonome Entscheidungen in gerechter Art und Weise getroffen werden, also etwa keine Gruppen oder Individuen grundsätzlich benachteiligt werden. Weitere abgeleitete Aspekte umfassen technische Robustheit, Transparenz und Erklärbarkeit. Die letztgenannte Anforderung ist beispielsweise nötig, um in Einzelfällen überhaupt beurteilen und prüfen zu können, ob und warum die konkrete Entscheidung des Systems obige Prinzipien untergräbt, um danach gegebenenfalls Gegenmaßnahmen ergreifen zu können.

Um diesen Anforderungen an KI-Systeme gerecht zu werden und einen (teilweise vorbeugenden) Rahmen für KI-Systeme in der Europäischen Union zu setzen, sieht der aktuelle Vorschlag der Europäischen Kommission für ein „Gesetz über Künstliche Intelligenz“ (AI Act) vor, bestimmte Anwendungen von KI-Systemen vollständig zu untersagen und für KI-Systeme in Hochrisiko-Kontexten strenge Vorgaben zu machen. In der Begründung des Gesetzesvorschlags heißt es dabei insbesondere, dass gewisse KI-Systeme „zu diskriminierenden Ergebnissen und zur Ausgrenzung bestimmter Gruppen führen [können]“ und daher „die Menschenwürde und das Recht auf Nichtdiskriminierung sowie die Werte der Gleichheit und Gerechtigkeit verletzen [können]“ (aus AI Act, Grund (17)). Verbotene Praktiken umfassen nach Artikel 5 des Entwurfs die unterschwellige Beeinflussung von Personen oder das Ausnutzen einer Schwäche oder Schutzbedürftigkeit von Personen(-Gruppen), sodass diesen ein physischer oder psychischer Schaden zugefügt werden kann. Kategorisch verboten sollen ebenso Klassifizierungs- und Bewertungssysteme sein, die die Vertrauenswürdigkeit von Personen bewerten, sodass durch ein bestimmtes soziales Verhalten Benachteiligungen entstehen. Ob der AI Act tatsächlich eine abschließende Lösung der Probleme bereitstellt, ist fraglich[1] – er stellt aber wohl einen wichtigen Schritt in die richtige Richtung dar.

Ein KI als objektiver Ombud, als neutrale Entscheidungsinstanz? Misstrauen ist angebracht (KI-generierte Abbildung).
Ein KI als objektiver Ombud, als neutrale Entscheidungsinstanz? Misstrauen ist angebracht (KI-generierte Abbildung, DALL·E).

Vertrauen in KI-Methoden

Selbstverständlich dürfen und sollen autonome KI-Systeme eine Person nicht aufgrund ihres Geschlechts, Abstammung, Hautfarbe, Religion oder weiteren Merkmalen nachteilig behandeln. Wie dies sicherzustellen ist, ist allerdings bei induktiven KI-Systemen (z.B. basierend auf Machine Learning) alles andere als offensichtlich. Lern-basierte KI-Systeme könnten genau mithilfe der oben beschriebenen Merkmale Entscheidungsmuster lernen, sofern während des Lernprozesses Zugriff auf diese Daten besteht. Aber auch wenn Daten über Geschlecht, Herkunft und anderen merkmalen nicht explizit vorliegen, können personengruppenbezogene Benachteiligungen auch über Umwege erlernt werden, zum Beispiel wenn die Lerndaten entsprechende Verzerrungen (engl. bias) bereits indirekt enthalten. Mehrabi et al.[2] fassen verschiedene Arten von Beeinflussungen zusammen, die sowohl Datenerhebung, Datenqualität als auch deren algorithmische Verarbeitung betreffen.

Dass vom unreflektierten Einsatz von KI-Systemen reelle und ernstzunehmende Gefahren ausgehen, ist wenig strittig. Ein beeindruckendes Beispiel ist die sogenannte COMPAS-Software (Correctional Offender Management Profiling for Alternative Sanctions), die von US-amerikanischen Gerichten unter anderem zur Unterstützung von Entscheidungen zu vorzeitigen Haftentlassungen genutzt wird. Einer Studie nach waren dabei die von COMPAS geschätzten Rückfallquoten für afroamerikanische Häftlinge wesentlich höher als bei anderen Gruppen[3]. Hier hat also ein KI-System, das man als ungerecht bezeichnen kann, unmittelbaren Einfluss auf den Lebensverlauf von Individuen. Weitere Verzerrungseffekte können etwa bei Empfehlungssystemen oder bei Gesichtserkennungs-Software auftreten.

Ein ethical governor, eine Art ethischen Kontrollinstanz, könnte KI-Entscheidungen überwachen und regulieren (KI-generierte Abbildung).
Ein ethical governor, eine Art ethische Kontrollinstanz, könnte KI-Entscheidungen überwachen und regulieren (KI-generierte Abbildung, DALL·E).

Sind symbolische KI-Methoden die Lösung?

Symbolische KI-Methoden sind historisch eher mit dem Prinzip der Deduktion verbunden. Bei der Deduktion werden aus allgemeinen und bekannten Gesetzmäßigkeiten (oder Regeln) und aus konkreten Situationen spezielle Schlussfolgerungen oder Handlungsanweisungen für die Situation abgeleitet. Im Gegensatz zur Induktion wird also vom Allgemeinen auf Spezielles geschlossen (und nicht umgekehrt). Dies hat natürlich den Vorteil, dass aus allgemein anerkannten Prinzipien nur sich daraus ergebende Handlungsanweisungen abgeleitet werden können, womit ungewollte Schlussfolgerungen zumindest stark begrenzt werden. Allerdings benötigen deduktive Systeme aktuell noch mehr menschliche Vorarbeit, da die genutzten Regeln üblicherweise explizit von Menschen kodiert und eingepflegt werden. Auch von den Regeln nicht abgedeckte Situationen können üblicherweise schlichtweg nicht bearbeitet beziehungsweise eingeschätzt werden.

Können also symbolische KI-Methoden die Lösung für vertrauenswürdige, aber eben auch gleichzeitig leistungsfähige und flexible KI-basierte Systeme sein? Die Antwort liegt wahrscheinlich, wie so oft, irgendwo in der Mitte: Sowohl induktive als auch deduktive Methoden haben Vor- und Nachteile, könnten sich aber gut ergänzen. Der für mich aktuell überzeugendste Ansatz ist der eines ethical governors (zu Deutsch etwa „ethischer Regulator“)[4,5]: Hierbei sollen (nicht unbedingt vertrauenswürdige) lernbasierte KI-Systeme weiterhin das autonome System steuern; dessen Anweisungen werden aber durch den ethical governor, einer Art ethischen Kontrollinstanz, geprüft und gegebenenfalls untersagt. Die deduktive Beurteilung der Kontrollinstanz basiert dann auf einer explizit kodierten Menge von regulatorischen Prinzipien (zum Beispiel ethische Prinzipien oder Rechtsnormen), deren Angemessenheit von Expertinnen und Experten ex ante untersucht und diskutiert werden kann. So sollen ungewollte Entscheidungen von autonomen Systemen bereits untersagt werden, bevor sie zur Ausführung kommen und einen Schaden anrichten können.

Der Weg zur Konzeption und Umsetzung von nachhaltig vertrauenswürdigen KI-Systemen ist noch lang; aber ich bin mir sicher, dass eine enge Kooperation der heutzutage noch weitgehend getrennten „KI-Lager“ (induktiv versus deduktiv) essenziell für die Erreichung dieses Ziels ist.

Literaturhinweise

  1. Siehe z.B. die Zusammenfassung der kritischen Auseinandersetzungen mit dem AI Act unter artificialintelligenceact.eu/analyses/
  2. Ninareh Mehrabi, Fred Morstatter, Nripsuta Saxena, Kristina Lerman, and Aram Galstyan. 2021. A Survey on Bias and Fairness in Machine Learning. ACM Comput. Surv. 54, 6, Article 115 (July 2021), 35 pages. doi.org/10.1145/3457607
  3. www.propublica.org/article/machine-bias-risk-assessments-in-criminal-sentencing
  4. R.C. Arkin, P. Ulam, and A. R. Wagner. Moral Decision Making in Autonomous Systems: Enforcement, Moral Emotions, Dignity, Trust, and Deception. Proceedings of the IEEE, 100(3):571–589, 2012.
  5. A. Dennis, M. Fisher, M. Slavkovik, and M. P. Webster. Formal Verification of Ethical Choices in Autonomous Systems. Robotics and Autonomous Systems, 77:1–14, 2016.

Prof. Dr. Alexander Steen

Alexander Steen studierte Mathematik (B.Sc) und Informatik (B.Sc. und M.Sc.) an der Freien Universität Berlin. Anschließend arbeitete Steen als wissenschaftlicher Mitarbeiter am Dahlem Center for Robotics and Machine Learning am Institut für Informatik der FU Berlin, wo er die prämierte KI-Software „Leo-III“ als Teil seiner Doktorarbeit entwickelte. Er wurde 2015 zusammen mit Kollegen mit dem Zentralen Lehrpreis der FU Berlin für die Konzeption einer neuartigen, interdisziplinären Vorlesung zur "Computational Metaphysics" ausgezeichnet und zum Junior-Fellow der deutschen Gesellschaft für Informatik (GI) ernannt. Nach seiner Promotion im Bereich der Künstlichen Intelligenz wechselte er 2018 an die Universität Luxembourg, um dort an computergestütztem normativen Schließen zu forschen. Seit 2022 ist Alexander Steen Juniorprofessor für Informatik an der Universität Greifswald und konzentriert sich auf Grundlagenforschung im Gebiet der symbolischen KI und auf Anwendungen solcher KI-Systeme zum Beispiel in den Rechtswissenschaften.