Ethische KI und was Aristoteles und Microsoft damit zu tun haben

post-thumb

Die ethische Verantwortung von KI-Lösungen und Entwicklern

Wir müssen nicht lange suchen, um Beispiele für unethische künstliche Intelligenz zu finden. Diese reichen von generativer KI, die mit urheberrechtlich geschützten Daten trainiert wurde, über medizinische Algorithmen, die Patienten aufgrund ihrer Hautfarbe bevorzugen oder benachteiligen, bis hin zu autonomen Fahrzeugen, die in moralisch herausfordernden Situationen eine Entscheidung treffen müssen.

Die beeindruckenden Fortschritte im Bereich der KI haben in den vergangenen Jahrzehnten zu weitreichenden technologischen Veränderungen geführt und unsere Gesellschaft nachhaltig transformiert. Aber weil KI-Anwendungen Implikationen aufweisen, die über herkömmliche IT-Systeme hinausgehen, ist von entscheidender Bedeutung, dass wir als Individuen, Entwickler und Unternehmen die gesellschaftliche Verantwortung, die mit dem Einsatz solcher Systeme einhergeht, erkennen.

Im Rahmen unsere Projekte und bei unseren KI-Workshops zeigt sich ebenfalls, dass sich auch Unternehmen mit diesen Fragen auseinandersetzen. Zur Beantwortung dieser Fragen hat Microsoft KI-Prinzipien entwickelt, die später noch genauer erläutert werden.

Was haben Aristoteles und Kant mit KI zu tun?

Intuitiv wissen wir vermutlich alle was gemeint ist, wenn von „moralischem Handeln“ die Rede ist: Wer einer alten Dame hilft, die Einkaufstasche in die Wohnung zu tragen, der handelt moralisch richtig. Aber warum genau empfinden wir diese Handlungsweise eigentlich als richtig? Und wie kann man einer KI antrainieren, diese Antwort selbstständig zu finden. Wie würden wir einer KI also erklären, warum er der Frau helfen sollte?

„Du solltest der Dame helfen, weil es die Tugend gebietet!“ So oder so ähnlich würde vermutlich Aristoteles argumentieren, wenn er KI-Consultant wäre. Für ihn ist das tugendhafte Verhalten nämlich der Schlüssel zur richtigen Handlungsweise. Einer KI tugendhaftes Verhalten anzutrainieren, kann allerdings eine Herausforderung sein, denn die Ermittlung des “richtigen” Verhaltens benötigt hier eine umfangreiche Analyse sowie die Untersuchung und das Anlernen mithilfe von Millionen von Fällen.

Oder wie Kant es formulierte: „Handle nur nach derjenigen Maxime, durch die du zugleich wollen kannst, dass sie ein allgemeines Gesetz werde“. Man sollte also der Dame helfen, weil man dieses Verhalten im Alter selbst schätzen würde. Um beurteilen zu können, ob und wie KI-Agenten moralisch agieren und ethisch argumentieren können, müssten sie in der Lage sein, sich als willensfreie Individuen eigene Gesetze zu geben, die konsequent moralisches Handeln beeinflussen. Sollten KI-Agenten dazu unfähig sein, was wahrscheinlich ist, bietet dieser Ansatz zumindest ein Mittel, um menschliche Autonomie von sogenannten “autonomen” KIs zu unterscheiden.

Position des deutschen Ethikrates zu KI-Auswirkungen

Am 20. März 2023 äußerte der Deutsche Ethikrat in einer offiziellen Stellungnahme seine Einschätzung zu den Auswirkungen digitaler Technologien auf das menschliche Selbstverständnis und das Miteinander. Die zentrale Frage lautete: Erweitert oder vermindert der Einsatz von KI die menschliche Autorschaft und die Bedingungen für verantwortliches Handeln?

Die Vorsitzende des Ethikrates, Alena Buycx, betonte: „Der Einsatz von KI muss die menschliche Entfaltung erweitern und darf sie nicht einschränken. KI darf den Menschen nicht ersetzen.“ KI-Systeme können also das Leben erleichtern und unterstützen, können jedoch auch missbraucht werden. Auch Julian Nida-Rümelin, stellvertretender Vorsitzender des Ethikrates, betone: „KI-Anwendungen können menschliche Intelligenz, Verantwortung und Beurteilung nicht ersetzen.“

Ethische KI in der Praxis – Responsible AI mit Microsoft-Tools

Wenn es um die Entwicklung oder Nutzung von ethischer KI geht, werden zwei Begriffe besonders häufig genannt: Erklärbarkeit und Interpretierbarkeit. Aber was genau bedeutet das und wann ist eine KI erklärbar bzw. interpretierbar?

Tooltip: Eine Möglichkeit, ein ML-Modell erklärbar zu machen, bietet das Responsible-AI-Dashboard von Microsoft. Das Responsible-AI-Dashboard und azureml-interpret nutzen Interpretierbarkeitstechniken aus der Interpret-Community, einem Open-Source-Python-Paket, das entwickelt wurde, um Modelle verständlicher zu machen und undurchsichtige KI-Systeme zu erklären. Zum einen können Data Scientists und ML-Engineers das Dashboard zur Fehleranalyse und zum Debuggen nutzen. Zum anderen sind es Entscheidungsträger, die darüber Insights über die Modelle erhalten können.

KI-Prinzipien von Microsoft

Microsoft hat sich dem Grundsatz verpflichtet, KI unter Einhaltung ethischer Prinzipien weiterzuentwickeln. Zu diesem Zweck haben sie sechs Prinzipien identifiziert, die ihre KI-Entwicklung und -Nutzung leiten sollen:

  1. Fairness: KI-Systeme müssen alle Menschen fair behandeln.
  2. Zuverlässigkeit und Sicherheit: KI-Systeme müssen zuverlässig und sicher funktionieren.
  3. Datenschutz und Sicherheit: Die Privatsphäre muss geschützt und die Sicherheit der Daten gewährleistet sein.
  4. Inklusion: KI muss für alle zugänglich sein.
  5. Transparenz: Die Funktionsweise von KI-Systemen muss offengelegt werden.
  6. Verantwortlichkeit: Die Entwicklung und Nutzung von KI muss verantwortungsbewusst sein.

Jedes dieser Prinzipien ist durch eine Reihe von Zielen definiert, die es zu erreichen gilt. Um diese Ziele zu unterstützen, hat Microsoft entsprechende Voraussetzungen und Tools entwickelt.

Fairness

Fairness ist ein zentrales Prinzip, das sicherstellen soll, dass KI-Systeme alle Menschen fair behandeln. Dies beinhaltet die Vermeidung von Diskriminierung und Vorurteilen in den Trainingsdaten. Konkrete Maßnahmen zur Verwirklichung der Fairness umfassen die Bereitstellung qualitativ hochwertiger Services für alle, die gerechte Zuweisung von Ressourcen und Chancen sowie die Minimierung von Stereotypisierung.

Zuverlässigkeit und Sicherheit

Die Zuverlässigkeit einer KI-Anwendung ist entscheidend für ihr sicheres Funktionieren. Microsoft legt Wert darauf, vorhersehbare Fehler zu definieren und Maßnahmen zur Fehlerbehebung zu ergreifen. Ongoing Monitoring, Feedback und Evaluation sind dabei wichtige Instrumente, um die Zuverlässigkeit zu gewährleisten.

Datenschutz und Sicherheit

Der Schutz der Privatsphäre und die Sicherheit der Daten ist ein zentrales Anliegen bei der Entwicklung ethischer KI. Microsoft verfolgt hier einen Privacy-Standard-Compliance-Ansatz, um sicherzustellen, dass Datenschutzbestimmungen eingehalten werden.

Inklusion

Microsoft setzt sich dafür ein, dass ihre KI-Anwendungen für alle zugänglich sind. Dies beinhaltet die Einhaltung von Accessibility-Standards, um sicherzustellen, dass die KI für Menschen mit unterschiedlichen Fähigkeiten und Bedürfnissen zugänglich ist.

Transparenz

Transparenz bedeutet, dass die Funktionsweise von KI-Systemen verständlich und nachvollziehbar ist. Microsoft betont die Bedeutung der Offenlegung von KI-Interaktionen sowie die Kommunikation mit Stakeholdern, um das Vertrauen in KI-Systeme zu stärken.

Verantwortlichkeit

Die Verantwortlichkeit umfasst die Überwachung von negativen Auswirkungen, die Bewertung des Einflusses der KI-Anwendung, die Sicherstellung ihrer Zweckmäßigkeit sowie eine angemessene Datenverwaltung und -führung. Microsoft legt Wert darauf, dass KI-Entwickler und -Nutzer die Verantwortung für die Auswirkungen ihrer Technologien übernehmen und sicherstellen, dass sie im Einklang mit ethischen Grundsätzen handeln.

Für weitere Ausführungen und Tooltips zur Umsetzung dieser Prinzipien empfehle ich den Responsible-AI-Standard von Microsoft . Wer sich über den Microsoft-Standard hinaus weiter mit KI-Ethik und der praktischen Umsetzung beschäftigen möchte, dem kann ich den KI-Prüfkatalog vom Fraunhofer IAIS nahelegen.

Fazit zu ethischen KI-Lösungen

In Zeiten von autonomen Fahrzeugen, LLMs und Bots müssen wir uns intensiv mit ethischen Fragen auseinandersetzen. Verschiedene philosophische Ansätze von Aristoteles bis Kant bieten wertvolle Einsichten, wie wir KI ethisch entwickeln und nutzen können. Konkrete Maßnahmen wie Explainable AI und KI-Prinzipien von Microsoft zeigen, dass wir auf dem richtigen Weg sind.

Die Darstellung zeigt zudem, dass sich Microsoft intensiv mit ethischen Fragestellungen in der Entwicklung ihrer KI-Systeme und Copiloten auseinandergesetzt hat. Microsoft übernimmt bei der Entwicklung ihrer Copiloten also Verantwortung in Bezug auf ethische Software-Entwicklung.

Die Schlussfolgerung des Deutschen Ethikrates betont deutlich: KI sollte die menschliche Autonomie erweitern, nicht einschränken. In diesem Sinne müssen wir weiterhin bestrebt sein, ethische KI-Lösungen zu entwickeln und zu implementieren, um eine Gesellschaft zu schaffen, in der Technologie das menschliche Wohlergehen fördert, ohne unsere fundamentalen Werte zu gefährden.


Mehr zu unseren KI-Lösungen.


Lernen Sie uns kennen

Das sind wir

Wir sind ein Software-Unternehmen mit Hauptsitz in Karlsruhe und auf die Umsetzung von Digitalstrategien durch vernetzte Cloud-Anwendungen spezialisiert. Wir sind Microsoft-Partner und erweitern Standard-Anwendungen bei Bedarf – egal ob Modernisierung, Integration, Implementierung von CRM- oder ERP-Systemen, Cloud Security oder Identity- und Access-Management: Wir unterstützen Sie!

Mehr über uns

Der Objektkultur-Newsletter

Mit unserem Newsletter informieren wir Sie stets über die neuesten Blogbeiträge,
Webcasts und weiteren spannenden Themen rund um die Digitalisierung.

Newsletter abonnieren