INHALT

Teil IV
Ethische Erwägungen: Beobachtungen

Regeln vs. Daten

Wir haben bereits im ersten Teil festgestellt, dass Maschinenlernen immer dann eine gute Option ist, wenn Zusammenhänge nicht präzise fassbar oder nicht verstanden sind – weil es dann sehr schwierig ist, die einzelnen Schritte eines Programms zu formulieren oder die relevanten Regeln sauber und vollständig zu erfassen. Jetzt stellen wir aber fest, dass wir dieses Problem dadurch gelöst haben, dass wir es verschoben haben! Statt expliziter Regeln benötigen wir in vielerlei Hinsicht „gute“ Daten. Es liegt in der Verantwortung der Entwicklerinnen und Entwickler KI-basierter Systeme, dass die Daten hinreichend gut sind, um daraus die relevanten Zusammenhänge abzuleiten. Aber festzustellen, ob das wirklich der Fall ist, ist in der Regel unmöglich.

Realweltliche Konsequenzen von Maschinenlernen

Ich finde das alles sehr interessant! Relevant wird es außerdem, wenn von Maschinen angestellte Berechnungen Konsequenzen in der analogen Welt zeitigen. Systeme zur Erkennung von FußgängerInnen sind ja kein Selbstzweck, sondern sollen das Verhalten von automatisierten Autos beeinflussen, etwa Bremsen oder Beschleunigen. Welche Resultate mir für eine Suche präsentiert werden, hat einen Einfluss darauf, welches Bild der Welt ich gewinne. Welche Art von Artikeln mir zum Kauf vorgeschlagen wird, hat einen Einfluss auf mein Kaufverhalten. Meine Hautfarbe kann – und hat mindestens in der Vergangenheit – dazu führen, dass eine Fehlberechnung zu meiner Festnahme führt.

Berechnungen von Maschinen haben also einen Effekt in der echten Welt. Sonst wären sie auch irrelevant und müssten gar nicht durchgeführt werden. Ich für meinen Teil halte es für vollkommen irrelevant, ob diese Berechnungen mit KI oder traditionellen Programmen erfolgt sind – weil beide Ansätze Vor- und Nachteile besitzen, die wir in Teilen schon verstanden haben. „Ethik und KI“ ist nicht die zentrale Fragestellung, sondern Ethik und Software!

Die Problematik des Begriffs „Entscheidung“

Wenn Effekte in der analogen Welt eintreten und das auf Basis maschinengenerierter Daten erfolgt, wird das häufig als „Entscheidung“ bezeichnet. Wenn man das nicht nur als sprachliche Analogie versteht, sondern tatsächlich davon ausgeht, dass Maschinen etwas „entscheiden“, halte ich das für problematisch. Für mich können Entscheidungen nur von Menschen gefällt werden, wenn die nämlich zwischen Handlungsoptionen auswählen. Ich weiß, dass die Philosophie und die Neurowissenschaft darüber streiten, ob es einen freien Willen gibt: Für mich gibt es ihn! Wie auch immer: Auf gewisse Art und Weise „entscheiden“ Maschinen ja tatsächlich – „Beschleunigen“ oder „nicht Beschleunigen“ kann man als Entscheidung begreifen. Diese maschinelle „Entscheidung“ ist aber wegen des zugrundeliegenden Programms oder der zugrundeliegenden gelernten Struktur vollkommen deterministisch und wird unter identischen Kontextfaktoren immer zum selben Resultat kommen. Das ist für Menschen nicht der Fall. In diesem Sinn „entscheiden“ Maschinen nichts, zumindest in meiner Weltsicht, auch wenn ich wiederholen möchte, dass ich für meinen Teil überhaupt kein Problem damit habe, wenn man das Wort „entscheiden“ als Analogie verwendet. Maschinen sind deswegen auch nicht verantwortlich und auch nicht haftbar. Interessant wird es dann, wenn Menschen von Maschinen berechnete Informationen als Grundlage für ihre Entscheidungen verwenden, und das sehen wir uns im nächsten Teil an.

Ethische Konsequenzen – Die Fehlbarkeit der Maschine

Wir haben im letzten Teil gesehen, dass die Qualität der von Maschinen gelernten Strukturen zur Berechnung einer Funktion direkt davon abhängt, wie gut, repräsentativ, vollständig und korrekt die Trainingsdaten sind. Wir haben gesehen, dass es zu unerwünschten Diskriminierungen kommen kann. Wir haben auch angedeutet, dass es sehr schwierig ist, diese Begriffe präzise zu fassen, vor allem die Vollständigkeit. Im letzten Teil wollen wir uns kurz ansehen, was für ethische Konsequenzen sich ergeben können, wenn die durch eine maschinengelernte Struktur errechneten Ausgaben falsch sind: Wenn keine Fußgängerin, kein Fußgänger gesehen wird, wo eine/r ist; wenn kein vorausfahrendes Fahrzeug gesehen wird, wo eins ist; wenn einem Gesicht eine falsche Person zugeordnet wird; oder wenn eine medizinische Fehldiagnose erfolgt.

Es gibt viele Beispiele für solche Fälle: 2016 ist ein Tesla in Florida in einen nicht erkannten kreuzenden Sattelschlepper gefahren, wodurch der Passagier bzw. Fahrer getötet wurde. 2018 wurde in Arizona eine Fußgängerin von einem autonomen Uber-Auto nicht erkannt und tödlich verletzt. 2020 ist ein Tesla in Taiwan in einen umgekippten Lastwagen gefahren, weil er das Objekt nicht erkannt hat; hier wurde niemand ernsthaft verletzt. Ebenfalls 2020 wurde Robert Williams aus Michigan festgenommen, weil eine Gesichtserkennungssoftware ihn fälschlicherweise als Verdächtigen identifiziert hatte.

Das sind extreme Beispiele, von denen wir zunehmend häufiger hören werden. So tragisch diese Ereignisse sind: In der öffentlichen Wahrnehmung führen sie für meinen Geschmack zu Überreaktionen und auch zu Angstmacherei. Wir haben eine Tendenz, von Maschinen viel mehr zu verlangen als von Menschen: Digitale Unterschriften müssen viel mehr „können“ als menschliche Unterschriften. Nicht nur betrunkene Autofahrer gefährden sich und andere ganz massiv weltweit jeden Tag, was Elon Musk als Argument für die letztlich höhere Sicherheit automatisierter Fahrzeuge verwendet hat. Polizistinnen und Polizisten machen Fehler bei der Erkennung von Personen. Es gibt Schätzungen, dass in den USA 5% aller Diagnosen für ambulante Patientinnen und Patienten Fehldiagnosen sind – das betrifft 12 Millionen Menschen – und dass 40.000 bis 80.000 Patientinnen und Patienten jedes Jahr wegen Fehldiagnosen sterben. Das soll nichts entschuldigen, bitte missverstehen Sie mich nicht. Enttäuschung ist aber eine Funktion der Erwartung, und deswegen müssen wir die Erwartungen realistisch formulieren. Ich möchte noch einmal wiederholen, dass es aus meiner Perspektive zunächst völlig gleichgültig ist, ob das Fehlverhalten aus maschinengelernten Strukturen resultiert oder aus von Menschen geschriebenen Programmen. Das Problem ist nicht, dass die KI „falsche Entscheidungen“ fällt. Das Problem ist vielmehr, dass Softwaresysteme aus sehr unterschiedlichen Gründen falsche Ausgaben liefern können, die dann entweder eine Maschine oder ein Mensch weiterverwenden, was dann zu Problemen führen kann.

Es gibt einen Unterschied zwischen meinen Beispielen: Im Fall der Gesichtserkennung haben Menschen Fehler gemacht, weil sie sich auf die Daten der Gesichtserkennungs-Software verlassen haben. Im Fall von Uber und Tesla hat die Maschine ein falsches Verhalten mit katastrophalen Konsequenzen gezeigt. In den drei Fällen mit teilautonomen Autos war aber ein Sicherheitsfahrer bzw. der Fahrer des Autos an Bord, der zumindest aus juristischer Perspektive rechtzeitig hätte bremsen müssen und können. Auch Flugzeuge können heute autonom starten und landen; eine Pilotin oder ein Pilot kann aber immer eingreifen. Ob der Mensch im Zweifelsfall und statistisch häufiger als die Maschine die adäquateren Handlungen vollzieht, ist für mich gar nicht klar. Einerseits verlassen wir uns zu Recht lieber auf unser ABS als auf unsere eigenen Bremsfertigkeiten. Andererseits lassen Beispiele wie das der spektakulären vogelschlagbedingten Landung 2009 auf dem Hudson River durch einen heldenhaften Piloten zu Recht fragen, ob eine Software das Problem ähnlich erfolgreich gelöst hätte.