Im September 2016 setze Bundesverkehrsminister Alexander Dobrindt eine Ethikkommission ein, um ethische Leitlinien für das autonome Fahren zu erarbeiten. Das Ergebnis wurde kürzlich präsentiert: 20 ethische Regeln hat die hochkarätig besetzte Kommission aufgestellt und dazu noch einige offene Fragen und Problemfelder thematisiert. Doch wie sind diese Regeln einzuschätzen? War die Kommission erfolgreich? Obwohl die Existenz dieses Berichts als wichtiger Schritt in Richtung einer gesellschaftlichen Debatte zum autonomen Fahren begrüßt werden muss, gibt es einige Schwachstellen. Diese verdeutlichen zum Teil erhebliche argumentative Probleme, zum Teil zeigen sie aber auch, wie sehr ein grundsätzliches Umdenken in Fragen der Technikregulierung nötig ist.

Zunächst ist eine höchst lobenswerte Tatsache, dass es diese Kommission und ihren Bericht überhaupt gibt. Die interessierte Öffentlichkeit sowie die politischen Entscheidungsträger, aber auch die akademische Community sowie Entwickler selbstfahrender Autos bekommen mit dem 33-seitigen Papier einen Vorschlag an die Hand, der konkrete Vorschläge zur Beantwortung weithin diskutierter Fragen macht. Die ethischen Regeln sind dabei an der Schnittstelle zwischen Philosophie, Recht, Technik auf der einen Seite, und Politik und Gesellschaft auf der anderen Seite anzusiedeln. Sie können den öffentlichen Diskurs wie auch die künftige politische Arbeit prägen. Wie mit ihnen konkret umgegangen wird steht freilich auf einem anderen Blatt und wird zu sehen sein. Als Baustein für eine politisch-gesellschaftliche Debatte, eine Selbstverständigung über wichtige Zukunftsfragen, ist der Bericht ein wichtiges Element. Es erfüllt somit die Forderung nicht weniger Technikethiker nach einer Klärung ethischer Fragen vor der umfassenden Markteinführung autonomer Fahrzeuge.

20 Regeln für das autonome Fahren

Der Bericht hebt an mehreren Stellen die Schutzbedürftigkeit und den Wert des individuellen Lebens hervor. Daraus folgt für die Kommission, dass die Sicherheit von Personen an erster Stelle steht: Personenschäden müssen verhindert werden, Sach- und auch Tierschäden müssen im Konfliktfall in Kauf genommen werden (Regeln 2, 7). Die Technik muss derart gestaltet sein, dass sie sich an die Fähigkeiten der Nutzer anpasst, um Unfälle zu vermeiden (Regeln 16, 17, 19, 5). Aus dem Sicherheitsversprechen autonomer Fahrzeuge mag sich sogar ein Gebot der Nutzung ergeben, ohne deswegen eine gesetzliche Pflicht zu generieren (Regel 6).
Der Entfaltungsanspruch des Menschen fundiert die Ethik selbstfahrender Autos und fordert, „dass ein Maximum persönlicher Entscheidungsfreiheit in einer allgemeinen Entfaltungsordnung mit der Freiheit anderer und ihrer Sicherheit zum Ausgleich gelangt“ (Regel 4). Privatautonomie muss dabei die technische Entwicklung bestimmen (Regel 1). Das bedeutet zum Beispiel, dass in Bezug auf die Datenerhebung und -nutzung die Fahrer oder Halter von autonomen Fahrzeugen die Hoheit behalten müssen (Regel 15) und dass eine umfassende Überwachung durch Automatisierung ausgeschlossen werden muss (Regel 13). Es bedeutet auch, dass ein Zwang zur Nutzung beziehungsweise eine „Unterwerfung unter technische Imperative“ abgelehnt wird (Regel 6).
Der absolute Wert des Einzelnen drückt sich darüber hinaus in dem Verbot aus, Menschenleben gegeneinander abzuwägen. Dies spielt vor allem in Bezug auf die Frage eine Rolle, wie derartige Autos in Unfallsituationen „agieren“ sollen. „Echte dilemmatische Entscheidungen, wie die Entscheidung Leben gegen Leben sind von der konkreten tatsächlichen Situation unter Einschluss ‚unberechenbarer Verhaltensweisen Betroffener abhängig“, heißt es dazu in Regel 8. Und weiter: „Sie sind deshalb nicht eindeutig normierbar und auch nicht ethisch zweifelsfrei programmierbar“. Regel 9 führt aus: „Bei unausweichlichen Unfallsituationen ist jede Qualifizierung nach persönlichen Merkmalen (Alter, Geschlecht, körperliche oder geistige Konstitution) strikt untersagt. Eine Aufrechnung von Opfern ist untersagt.“
Ein weiteres Kernelement des Berichts betrifft die Frage der Verantwortung (Regeln 3, 10, 11). Die Ethikkommission legt die Gewährleistungsverantwortung in die öffentliche Hand und verlangt für Fahrsysteme eine „behördliche Zulassung und Kontrolle“. Darüber hinaus gelten für Schadensfälle die gesetzlichen Produkthaftungsregeln. Die Verantwortung haben also Hersteller und Betreiber selbstfahrender Autos (und der infrastrukturellen Umwelt, in der diese operieren), die unter anderem auch dazu angehalten sind, ihre Systeme ständig zu optimieren.

Zusätzlich zu den 20 Regeln diskutiert der Bericht offene Fragen und erläutert einige seiner Position. Doch hier zeigen sich Probleme und Inkohärenzen, von denen ich drei nennen möchte: Eine Inkohärenz im Zusammenhang mit der Verrechenbarkeit von Leben; falsch verstandene Autonomie; und ein zu starkes Vertrauen auf die Politik beziehungsweise die Gesetzgebung.

Zu Lande wie in der Luft: (Un)Verrechenbarkeit des Lebens

Zum einen ist die Argumentation, die auf den absoluten Wert des Menschenlebens abhebt und ein Verbot der Verrechenbarkeit von Menschenleben fordert, nicht stimmig. Die Ethikkommission argumentiert, dass das absolute Verbot einer solchen Verrechnung auch für Unfallsituationen gelten muss. Das Bundesverfassungsgericht hat in dem weithin bekannten Urteil zum Luftsicherheitsgesetz festgestellt, dass ein Flugzeug nicht abgeschossen werden darf, das von Terroristen gekapert und zum Absturz gebracht werden soll, bei dem eine große Zahl an Menschenleben auf dem Spiel stehen. Dies, so das Gericht, instrumentalisiere die unschuldigen Passagiere des Flugzeugs. Entsprechend steht in dem Bericht zum autonomen Fahren, es sei auch abzulehnen, „eine Person zu opfern, um mehrere andere zu retten“ (Sektion 1.6). Erlaubt sei es indes, selbstfahrende Autos derart zu programmieren, dass eine Minimierung der Opfer angestrebt wird, „wenn die Programmierung das Risiko eines jeden einzelnen Verkehrsteilnehmers in gleichem Maße reduziert“ (ebd.).

Dem Argument geht es an dieser Stelle um die Gedankenfigur des „Schleiers des Nichtwissens“, hinter dem sich die Mitglieder einer Gesellschaft (das heißt: wir) befinden und mit der Aufgabe betraut sind, Regeln für den Umgang mit autonomen Fahrzeugen zu finden. Wenn es nun eine Regel gibt, die für alle Vorteile hat, dabei mögliche Nachteile aber so „verteilt“, dass niemand vorab ein höheres Risiko trägt, diese Nachteile zu erleiden, dann sei diese Regel zu wählen. Dass ein autonomes Fahrzeug in Unfallsituationen utilitaristisch agieren soll, ist genau solch eine Regel, meint die Kommission. Es soll im Falle eines unvermeidlichen Zusammenstoßes also nicht auf die Gruppe von fünf Personen zurasen, sondern auf die von zwei Personen, weil hier der Schaden minimiert wird. Wer von denjenigen, die sich hinter dem Schleier des Nichtwissens diese Regel geben, in welcher Gruppe sein könnte, das ist völlig zufällig. Das Risiko ist also gleichverteilt, daher ist die Regel in den Augen der Kommission erlaubt. Nicht erlaubt sei es hingegen, ein derartiges Verhalten als ein Abwägen und Verrechnen anzusehen, da dies durch das Grundgesetz, wie das Beispiel des Urteils zum Luftsicherheitsgesetz zeigt, nicht gedeckt ist.

Doch an diese Argumentation schließen sich zwei Fragen an. Warum, so die erste Frage, stellt eine utilitaristische Regel, wonach der Schaden minimiert werden muss, keine Verrechnung von Menschenleben dar? Es wird aus dem Bericht nicht ersichtlich, wie die Ablehnung der Verrechnung von Menschenleben zwar abzulehnen sei, das Setzen einer utilitaristischen Regel indes nicht.
Man könnte nun auf das in Regel 9 festgesetzte Diskriminierungsverbot verweisen. Verrechnung finde nur dann statt, hieße das dann, wenn man den Schaden, der minimiert werden soll, anhand von Merkmalen der zu Schaden kommenden Personen festlegt. Wenn beispielsweise der Schaden dann minimiert wird, wenn selbstfahrende Autos im Falle eines Unfalls auf ältere Menschen zurasen, anstatt auf junge Kinder, dann liegt eine Diskriminierung vor, durch die die Älteren zu Gunsten der Jüngeren geopfert werden. Diese Lösung scheint in der Tat dem Kriterium des gleichen Risikos zu widersprechen, das hinter dem Schleier des Nichtwissens die Entscheider leitet.
Allerdings kommt es darauf an, wie dieser Schleier konkret ausgestaltet ist. In einer prominenten Variante wissen die Parteien hinter dem Schleier des Nichtwissens nämlich nicht, welcher Altersgruppe, Nationalität, sozioökonomischen Schicht und dergleichen sie angehören. Sie müssen, in anderen Worten, davon ausgehen, dass sie mit gleicher Wahrscheinlichkeit der einen oder anderen Gruppe angehören, dass sie also mit gleicher Wahrscheinlichkeit ältere Menschen sind, die geopfert werden, oder jüngere Menschen, die gerettet werden. Außerdem könnten sie der Meinung sein, dass es in Bezug auf das Alter eines Menschen tatsächlich Unterschiede in der Bewertung von Nutzen gibt. Jüngere Menschen haben mehr Lebensjahre vor sich als ein älterer Mensch, so dass rein quantitativ gesehen mehr Nutzen damit verbunden ist.
Dies, zusammen mit der Unkenntnis ihrer tatsächlichen Identität, führt zu der Folgerung, dass Diskriminierung entweder mit dem Kriterium „gleiches Risiko“ kompatibel ist, oder jedenfalls nicht dazu dienen kann, das Verrechnungsverbot zu begründen. In beiden Fällen gilt dann aber, dass eine Verrechnung von Menschenleben aufgrund einer utilitaristischen Regel statthaft ist. Warum also nicht einfach zulassen, dass Verrechnung von Menschenleben möglich sind – und ethisch vielleicht sogar geboten?

Doch nehmen wir für einen Moment an, dass die Überlegung der Ethikkommission stimmt: ein nicht-diskriminierendes gleiches Risiko, Opfer eines Unfalls mit einem selbstfahrenden Auto werden zu können, rechtfertigt die Setzung der oben genannten utilitaristischen Regel (und nur dies). Die zweite Anfrage an das Argument der Kommission lautet dann: Warum wird im Falle des autonomen Fahrens utilitaristisch argumentiert, im Falle der Flugzeugentführung aber nicht?
Wenn die bisherige Argumentation der Kommission stimmt, dann besteht nämlich ein Problem mit der normativen Grundlage dieser Argumentation. Der Bericht verweist, wie oben dargelegt, auf das absolute Verrechnungsgebot, das im Luftsicherheitsgesetz-Urteil des Verfassungsgerichts zum Ausdruck kommt. Nimmt man aber die Entscheidungsprozedur ernst, die den Schleier des Nichtwissens bemüht, so müsste man auch im Falle einer Flugzeugentführung für eine utilitaristische Regel plädieren – den Abschuss also rechtfertigen.
Der Bericht vermischt in unzulässiger Weise zwei verschiedene Entscheidungssituationen. Im Falle des autonomen Fahrens argumentiert er aus der Position eines Regelfindungsprozesses hinter dem Schleier des Nichtwissen heraus. Den Flugzeugabschusses hingegen bewertet er als konkrete Entscheidungssituation konkreter (politischer, militärischer, polizeilicher) Entscheidungsträger. Wenn wir uns aber fragen, zu welcher Entscheidung die Mitglieder einer Gesellschaft kommen, die sich hinter dem Schleier des Nichtwissens Regeln für derartige Entführungsfälle geben, dann gilt auch hier, dass eine Regel das Risiko aller, durch Terrorakte zu Tode zu kommen, minimiert wird, und das Risiko, Opfer eines Flugzeugabschusses zu werden, für alle gleich ist. Schließlich weiß niemand, ob er oder sie im Flugzeug sitzt oder im Fußballstadium, auf das die Terroristen zufliegen.
Man kann also nur beides zusammen haben: entweder man argumentiert utilitaristisch und erlaubt Schadensminimierungsalgorithmen wie Flugzeugabschüsse, oder man verbietet beides auf der Grundlage des Verrechnungsverbots (was indes die oben genannten Probleme nach sich zieht). Das eine zu erlauben, das andere nicht, verbietet sich.

Autonomie: falsch und richtig verstanden

Die Ethikkommission des Bundesverkehrsministeriums betont an verschiedenen Stellen die Autonomie des Individuums. Diese führt zu der Forderung, dass die Nutzer oder Halten von autonomen Fahrzeugen jederzeit die Hoheit über ihre Daten haben müssen. Ein solches Fahrzeug benötigt, wie der Bericht ausführt, eine ganze Reihe an Daten. Das Auto selbst erhebt Standort- und Umweltdaten, steht möglicherweise in Kontakt mit anderen Fahrzeugen (vehicle-to-vehicle communication, V2V) und der Verkehrsinfrastruktur (vehicle-to-X communication, V2X). Neben der Ermöglichung des autonomen Fahrbetriebs können derartige Daten auch von anderen Dienstleistern verwendet werden. Der Bericht nennt explizit „pay as you drive“-Modelle, bei denen Versicherungen ihren Tarif der Fahrleistung anpassen: Wer sicherer fährt, zahlt weniger. Solchen Geschäftsmodellen müsse ein „demokratische[r] und grundrechtliche[r] Abwägungsprozess“ gegenübergestellt werden, durch den die Reichweite derartiger Freiheitsbegrenzung bestimmt werde. Denn es sei, so die Kommission, auch Ausdruck von Autonomie, schlechte oder schädliche Handlungen durchzuführen. Anreize durch die beschriebenen Versicherungsmodelle kommen für die Kommission einer Gängelung gleich.
Autonomie ist auch im Spiel, wenn es um die Frage geht, inwieweit sich die Fahrer eines autonomen Autos den Regeln der Programmierer, letztlich der Souveränität der Algorithmen unterwerfen müssen. Im Falle eines drohenden Zusammenstoßes sei die entsprechend programmierte (utilitaristische) Regel vielleicht ethisch richtig, meint die Kommission. Es bleibe aber eine Fremdentscheidung, „die zudem nicht intuitiv eine konkrete Situation erfasst (mit allen Vorteilen und Nachteilen intuitiv-situativer Verhaltenssteuerung), sondern eine Lage abstrakt-generell zu beurteilen hat.“ Und weiter: „Letztendlich würde also im Extremfall der Programmierer oder die Maschine die ‚richtigen‘ ethischen Entscheidungen über das Ableben des einzelnen Menschen treffen können. Konsequent weitergedacht, wäre der Mensch in existentiellen Lebenssituationen nicht mehr selbst-, sondern vielmehr fremdbestimmt.“ Hier drohe nicht zuletzt die Gefahr des Paternalismus, sofern der Gesetzgeber diese „richtige“ Entscheidung vorgibt.

An dieser Sichtweise sind mehrere Dinge problematisch. Zum einen fordert die Kommission eine politische Entscheidung hinsichtlich privater Datenmodelle. Andererseits aber lehnt sie einen Paternalismus ab, der in Form gesetzlicher Vorgaben für die Algorithmen ethische Entscheidungen vorgibt. Ganz abgesehen davon, dass hier eine Ungleichheit in der Bewertung herrscht, bleibt offen, warum es kein Paternalismus ist, wenn Datenmodelle gesetzlich eingeschränkt werden. Ist es nicht Ausdruck von Autonomie, Versicherungsmodelle frei wählen und mit der Preisgabe von Daten bezahlen zu können? Interessanterweise betont der Bericht mehrmals und zu Recht, dass Datenschutz nicht rein eine Frage des Schutzes von Individuen sei, sondern die Ermöglichung, Hoheit über Daten zu haben. Daten, mit denen die Individuen frei umgehen können. Dies sollte dann aber auch einheitlich angewendet werden.

Problematischer ist indes das Verständnis von Autonomie, das die Kommission in Bezug auf die „Beherrschung“ durch autonome Fahrzeuge zum Ausdruck bringen. Wenn Verhaltensregeln von einem anderen Akteur als dem Fahrer selbst umgesetzt werden, dann ist der Fahrer fremdbestimmt. Gilt das dann ebenfalls für die Passagiere eines Busses? Auch hier geben sich die Reisenden in die Obhut eines anderen Akteurs, ohne dass sie deswegen als fremdbestimmt angesehen werden müssten.
Doch im Sinne des Berichtes müsste man sagen, dass der Fahrer eines Busses eben nicht abstrakt-generell handelt, sondern die jeweilige Unfallsituation intuitiv erfasst und reagiert. Doch was ist das Besondere an einer intuitiven Erfassung von Situationen? Die Autoren des Berichts bleiben eine Antwort darauf schuldig, was genau eine abstrakt-generelle Erfassung einer Situation und die Anwendung einer Regel auf einen Einzelfall so anders macht als eine intuitive, menschliche Erfassung derselben Situation.
Doch selbst wenn dies der normativ wirksame Unterschied sein sollte, so bleibt offen, warum es eine Fremdbestimmung ist, wenn sich Menschen abstrakt-generellen Entscheidern unterwerfen. Gibt es nicht Fälle, wo genau dies passiert? Denken wir zur Veranschaulichung an Odysseus, den Helden aus der griechischen Mythologie. Bevor dieser an den Sirenen vorbeisegelt, lässt er sich von seiner Mannschaft an den Mast seines Schiffes binden, um dem Sirenengesang nicht zu verfallen. Er begibt sich in die Herrschaft anderer – ohne dabei aber seine Autonomie zu verlieren. In der politischen Philosophie des Republikanismus wird diese Form der Selbstbindung als Paradebeispiel für autonomiewahrende Freiheitseinschränkung gewertet. Bei Odysseus wie bei selbstfahrenden Autos agieren die „Fremdbestimmer“ zudem beide abstrakt-generell: Odysseus‘ Leute agieren lediglich auf den Reiz „Sirenengesang“, und sobald dieser beendet ist, binden sie ihren Boss wieder los, folgen also Odysseus‘ Regel. Autonome Fahrzeuge tun dasselbe: Sie reagieren auf einen bestimmten Reiz („fünf Menschen rechts, zwei Menschen links“) und agieren gemäß der programmierten Regel („fahre nach links“).
Während aber der Regelsetzer im Odysseus-Fall Odysseus selbst ist, könnte man argumentieren, ist es heute der Programmierer selbstfahrender Autos, also eine dritte Partei. Doch diese Unterscheidung trägt nicht, wenn man bedenkt, dass der Akt der Zustimmung zur Freiheitseinschränkung bereits der Kauf oder die Benutzung des Autos ist. Hier werden die Geschäftsbedingungen anerkannt, die festlegen, dass eine Freiheitseinschränkung stattfindet, genauso wie Odysseus zustimmt beziehungsweise bestimmt, sich festbinden zu lassen. Der Käufer eines selbstfahrenden Autos bindet sich durch den Kauf an den Masten der Algorithmen – und ist damit in keinster Weise fremdbestimmt.
Nun könnte weiter argumentiert werden, dass die Frage, ob selbstfahrende Autos die Autonomie illegitimerweise einschränken, davon abhängt, ob die Menschen freiwillig diese Gefährte verwenden. Eine gesetzliche Pflicht und vielleicht auch die normative Kraft des künftig Faktischen könnte dies verhindern. Ob es dazu aber kommt und ob, wenn alle Menschen selbstfahrende Autos benutzen, der Weg dahin autonomieeinschränkend ist, muss durch weiterreichende Überlegungen bestimmt werden. Eine spontane Ordnung, die durch Markttransaktionen zur umfassenden Verbreitung selbstfahrender Autos führt, ist sicher nicht in derselben Weise autonomieeinschränkend wie eine gesetzliche Pflicht. Es folgt aus diesen Überlegungen jedenfalls, dass die autonomie-basierte Argumentation der Ethikkommission zumindest unvollständig, wenn nicht sogar schlicht falsch ist.

Wo bleibt die politische Ethik?

Zu guter Letzt sei erwähnt, dass der Bericht seine Regeln zwar ethisch nennt , an zentralen Stellen aber auf die rechtliche Dimension abhebt. Jedenfalls sehen die Berichterstatter das geltende Recht in Form der bundesrepublikanischen Verfassung, des Grundgesetzes also, als Leitstern an, mit denen die Regeln zum autonomen Fahren kompatibel sein müssen. Man könnte freilich noch „ethischer“ vorgehen und nicht die Verfassung, sondern gewissermaßen die Vernunft als Leitstern heranziehen. Das würde dazu führen, dass die Ethik des Grundgesetzes selbst hinterfragbar wird. Dass dies nicht geschieht ist dem politischen Kontext des Berichts zu verdanken. Es ist in der Technikfolgenabschätzung und auch der Technikethik nicht selten, dass eine evaluative Betrachtung von Technikentwicklung die Ethik des Rechts oder, noch ein Stück fundamentaler, die Ethik der Politik außer Acht lässt. Schließlich sollen bei derartigen Projekten Lösungen gefunden werden, die im Rahmen des Existierenden umsetzbar sind. Eine Ethik der Politik selbst in Anschlag zu bringen führt jedoch nicht selten in den Bereich grundsätzlichen Reformbedarfs, der schwerlich umzusetzen ist.

Vielleicht ist aber an manchen Punkten eine gewisse Distanzierung zum Herkömmlichen und ein radikaler(es) Umdenken notwendig. Der Dualismus zwischen der profit- und nutzenorientierten Technikentwicklung auf der einen Seite und der Politik auf der anderen Seite, die das Gemeingut, die öffentliche Wohlfahrt im Blick hat und die Wirtschaft entsprechend regulieren muss, entspricht schlicht nicht der Wirklichkeit. Es gibt zu viele Beispiele für das, was Ökonomen „rent-seeking“ und „regulatory capturing“ nennen. Dabei verhilft das Machtmonopol der Politik gut organisierten Interessensverbänden dazu, der Wirtschaft genehme Regulierung zu kaufen. Diese Regulierung ist jedoch oft keineswegs im Interesse der Allgemeinheit. Wie James Buchanan, Gordon Tullock und viele andere zeigen, sind die damit verbundenen Kosten extrem hoch: Durch das Verhindern von Wettbewerb etwa entstehen massive Wohlfahrtsverluste und Innovationen werden verlangsamt. Gut nachgewiesen sind derartige Effekte der politischen Ökonomie nicht nur etwa für den Bereich der Landwirtschaft und des Flugverkehrs, sondern auch für die High-Tech-Branche. Die im vergangenen Jahr verabschiedete europäische Datenschutz-Grundverordnung ist ein hervorragendes Beispiel zur Illustrierung des Einflusses gut organisierter Lobbyisten auf die Gesetzgebung.

Vor diesem Hintergrund sind die Aussagen des Berichts kritisch zu werten, die der öffentlichen Hand eine starke Rolle in der Regulierung zuweisen. Für die Gewährleistungsverantwortung gibt es beispielsweise Möglichkeiten, die Sicherheit technischer Systeme durch wettbewerblich organisierte Zertifizierungsorganisationen zu garantieren. Und warum muss der Staat für Datenschutzregeln sorgen? Würden wir wirklich in einer Welt völliger Transparenz und gänzlich ohne Privatheit leben, wenn es keine Datenschutzgesetze gibt? Ist nicht staatliche Überwachung das eigentliche Problem – relativ schwer kontrollierbare Macht, die sich jederzeit und ohne große Kosten Zugang zu privater Kommunikation verschaffen kann? Auch wenn es dieser Tage schwierig ist zu vermitteln, dass Marktprozesse eine koordinierende, nicht eine ausbeuterische Wirkung haben, so kann doch nicht zu wenig betont werden, dass es den Wettbewerb auszeichnet, die besten und akzeptabelsten Lösungen aus allen möglichen Optionen herauszufiltern. Sofern Sicherheit und Datenschutz nachgefragt werden, bietet der Markt effektive Möglichkeiten, ein Angebot dafür zu schaffen.

Darüber hinaus ist es keinesfalls gesichert, dass etwa das aus dem Grundgesetz ableitbare Verbot der Verrechnung von Menschenleben ethisch derart absolut gilt, wie dies die Kommission annimmt. Ethische Normen und Werte verändern sich, sie passen sich an die Gegebenheiten, die jeweils möglichen sozialen Situationen an – mit dem „Ziel“, menschliche Entfaltung durch die Ermöglichung von Kooperation zu fördern. Das existierende Recht dabei als absolut geltenden Orientierungsmaßstab anzusehen, ist pragmatisch verständlich, verstellt aber letzten Endes den Blick darauf, wie das Recht selbst verbessert werden kann, um der dynamischen Natur von Ethik Rechnung zu tragen. Es bedarf also eines tieferen Blickes, um die Ethik autonomen Fahrens herauszuarbeiten und wirksam werden zu lassen. Und vielleicht muss man sich dabei auch von den Sicherheiten des Geltenden verabschieden, um neue Wege zu finden, durch die Ethik wirksam werden kann.

Das bedeutet nun nicht unbedingt, dass man die geltende Rechtsordnung außer Kraft setzen oder missachten muss. Es reicht schon, wenn man Möglichkeiten findet, wie der Gesetzgebungsprozess nicht mehr monopolistisch organisiert wird, sondern sich wettbewerblichen Strukturen öffnet. In anderen Worten: Wenn das Recht selbst den Gesetzen des Marktes unterworfen wird und dieser auch in Rechtsfragen seine koordinierende Wirkung entfalten kann, dann besteht die Möglichkeit, dass die Regulierung von Technik den individuellen Interessen besser entspricht und technologische Innovation so lenkt, dass der Nutzen genossen wird und die Nachteile eingegrenzt werden. Wie derartige Rechtsfindungsprozesse aussehen können ist Thema der politischen Ethik. Diese einer Rechts-Ethik des autonomen Fahrens hinzuzufügen kann und sollte die begrüßenswerte Liste der 20 ethischen Regeln der Ethikkommission ergänzen. Neben etwas mehr Markt im Bereich der Technikentwicklung wäre also auch etwas mehr Markt im Politischen wünschenswert. Zu diesem radikalen Umdenken in Fragen der Technikregulierung war die Kommission aber (verständlicherweise?) nicht bereit.

 

Ein Gedanke zu “Verrechnungsverbot, Autonomie und politische Ethik: Über drei Probleme mit den ethischen Regeln für das autonome Fahren

Kommentar verfassen

Trage deine Daten unten ein oder klicke ein Icon um dich einzuloggen:

WordPress.com-Logo

Du kommentierst mit Deinem WordPress.com-Konto. Abmelden /  Ändern )

Google+ Foto

Du kommentierst mit Deinem Google+-Konto. Abmelden /  Ändern )

Twitter-Bild

Du kommentierst mit Deinem Twitter-Konto. Abmelden /  Ändern )

Facebook-Foto

Du kommentierst mit Deinem Facebook-Konto. Abmelden /  Ändern )

Verbinde mit %s