Von Schirach zu Asimov – Regeln für moralische Maschinen

0
Moral - Delete - CC BY-NC 2.0

Viel wurde in den letzten Tagen über von Schirachs Drama “Terror” in der ARD diskutiert. Eine ähnliche Frage werden wir uns wohl schon bald stellen müssen.

Ferdinand von Schirach stellt in seinem Theaterstück “Terror” eine juristische Frage mit einem stark emotionalen Hintergrund zur Debatte und fordert die Zuschauer dazu auf, sich zu entscheiden. Er simuliert eine Szenerie, in der ein Flugzeug von einem Terroristen übernommen wird und auf ein volles Stadion zuhält. Ein Kampfpilot der Luftwaffe entscheidet sich dazu, das Flugzeug abzuschießen, um noch mehr zivile Opfer zu vermeiden. Im darauf folgenden Gerichtsprozess geht es um die Frage, ob der Pilot schuldig des Mordes der 164 Flugzeuginsassen ist oder freigesprochen werden soll. Das Drama endet mit einer Abstimmung bei der sich am Montag Abend eine überwältigende Mehrheit der Zuschauer für einen Freispruch aussprach. Klar ist, man kann sowohl juristisch als auch moralisch zu unterschiedlichen Ergebnissen kommen. Würden nicht bei einem Absturz des Flugzeugs dessen Insassen in jedem Fall sterben? Könnte so nicht unendliches Leid abgemildert werden? Andererseits: Wäre es nicht möglich, dass die Flugzeuginsassen den Attentäter überwältigen und so eine Katastrophe verhindern?

Denkt man das geschilderte Szenario weiter, so landet man schnell bei anderen Fragestellungen, die ein ähnliches Dilemma aufzeigen. Ein sehr aktuelles möchte ich in diesem Text vorstellen.

Der technische Fortschritt öffnet uns mit ungeahnter Geschwindigkeit immer neue Chancen und Möglichkeiten. Gerade in der Automobilbranche wird in Deutschland viel an neuen technischen Errungenschaften getüftelt, die das Leben und vor allem die Fortbewegung einfacher machen sollen. Konnte man vor 25 Jahren das Lenkrad noch kaum bewegen, so ist das heute mit Servolenkung überhaupt kein Problem mehr. Die neuesten Fahrzeuge kommen mittlerweile mit Ein- und Ausparkassistent, Spurhalteassistent, Abstandswarner und einem multimedialen Display, welches einem so gut wie alles über den Zustand des Fahrzeugs verrät. In Zukunft werden wir immer weitere Teile des ursprünglichen Fahrens an die Technik abgegeben, bis wir in einigen Jahren wohl voll funktionsfähige selbstfahrende Autos haben werden. Dies wird dazu führen, dass unser Straßenverkehr deutlich sicherer und umweltschonender wird, Fehler können aber durch menschliches oder auch technisches Versagen weiterhin passieren.

In recht naher Zukunft werden sich die Programmierer der großen Autokonzerne genauso wie die Gesetzgebung nun die Frage stellen müssen, wie selbstfahrende Autos in bestimmten Situationen reagieren sollen. Die dabei vorgegebenen Regeln sollten vorher von der Gesamtgesellschaft sehr intensiv moralisch, ethisch sowie juristisch diskutiert werden. Als ersten Schritt hat Verkehrsminister Dobrindt Ende August bereits eine Ethikkommission unter der Leitung von Udo di Fabio, die der Frage nachgehen sollen, wie eine Programmierung von Fahrzeugen in Zukunft aussehen soll.

Es gibt dabei ganz verschiedene Szenarien, die im Autoverkehr ganz alltäglich sind. Ein Autofahrer übersieht beispielsweise einen Fahrradfahrer mit Vorfahrt – der Computer könnte hier ein Notbremsung einleiten und ausweichen. Die Frage die sich stellt ist: Was macht der Computer, wenn ein Abbremsen mit Ausweichen nicht mehr möglich ist, ohne den Fahrer des Fahrzeugs zu gefährden? Soll der Computer seinen Besitzer schützen und ein Ableben des Radfahrers bewusst in Kauf nehmen? Oder sollte der Computer im Sinne der Straßenverkehrsordnung den Fahrfehler des Autofahrers korrigieren und dabei seine Verletzung in Kauf nehmen? Wie sieht eigentlich die Schuldfrage aus, wenn eine Software einen technischen Aussetzer hat und ein selbstfahrendes Auto einen Unfall mit Schaden verursacht? Im Moment ist dafür immer der Fahrer verantwortlich, weil die heutigen Autos so konzipiert sind, dass ein Eingreifen des Fahrers immer möglich ist. Das wird in Zukunft nicht mehr unbedingt der Fall sein. Soll dann der Autohersteller für den technischen Fehler haften? Noch fraglicher wird das Problem, wenn man davon ausgeht, dass beispielsweise ein Fußgänger ein Elektroauto überhört und die Straße betritt, ohne geschaut zu haben. Das Szenario könnte so aussehen, dass Bremsen nicht mehr möglich ist und Ausweichen nur noch die Möglichkeit zulässt, dass entweder der Fußgänger oder eine am Rand stehende Gruppe von Menschen getroffen wird. Wie soll der Computer sich nun verhalten? Fährt er stur weiter geradeaus und trifft so den Fußgänger oder weicht er aus und riskiert dabei mehr Menschenleben?

Gerade im zweiten Szenario denkt man zuerst, dass es ja klar ist, dass die Gruppe geschützt wird. Das Beispiel ist gerade was den Vergleich von Menschenleben angeht sehr ähnlich zu eben jenem aus “Terror – Ihr Urteil”. Wie aber verändert sich Ihre Meinung zum Thema, wenn die Person, die die Straße betritt, ein geliebter Mensch ist? Oder in der Gruppe ein Mensch steht, den sie schon seit Jahren nicht leiden können? Wir können davon ausgehen, dass die Analysefähigkeiten von Computern in Autos sehr ausgeprägt sein werden. Wie verändert sich Ihr Urteil, wenn die Gruppe aus hochaltrigen Rentnern besteht, die vermutlich nicht mehr lange zu leben haben und der Fußgänger ein Grundschulkind ist? Wäre es da – im Sinne der zu erwartenden Lebensjahre – nicht gerecht, die Rentnergruppe sterben zu lassen?

Wir sollten nicht warten, bis die ersten Unfälle mit selbstfahrenden Autos eintreten, um eine konkrete juristische Grundlage zu schaffen. Ich möchte nicht, dass das Schicksal von tausenden Menschen in der Zukunft auf Grundlage einer Entscheidung von wenigen Programmierern getroffen wird. Daher ist es unglaublich wichtig, diese Fragen gesamtgesellschaftlich zu diskutieren und nicht dem Zufall zu überlassen. Die eingerichtete Ethikkommission kann dabei nur der erste Schritt einer breit gefächerten Diskussion sein, die den Bundestag in Zukunft hoffentlich zu einer für alle nachvollziehbaren und wohl begründeten Entscheidung führen wird.

Wer sich weitergehend für das Thema interessiert, der kann sich einmal die „Moral Machine“ des Massachussets Institute of Technology (MIT), USA anschauen. Dieser zeigt weitere Beispiele und anonyme Auswertungen über die Ergebnisse von anderen Teilnehmern auf. Sehr spannend!

Über den Autor

*1992, studiert Wirtschaftsinformatik, Schwerpunkte: Technik, Politik & Sport


Keine Kommentare

Kommentar hinterlassen

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.