Welche Entscheidungen wollen wir Maschinen überlassen?

22. DVR-Forum „Sicherheit und Mobilität“: Automatisiertes Fahren und Ethik

Bonn, 21. Juni 2016 (DVR) – Schon heute werden wir durch unsichtbare Helfer beim Autofahren unterstützt. Fahrerassistenzsysteme helfen, Unfälle zu vermeiden oder deren Folgen zu vermindern. In nicht allzu ferner Zukunft werden hochautomatisierte Fahrfunktionen folgen: Das Fahrzeug übernimmt – zunächst zeitweise – die Fahraufgabe, es gibt Gas, lenkt und bremst. Der Fahrer kann sich in dieser Zeit anderweitig beschäftigen und muss die Fahrsituation nicht überwachen.

Mit der Entwicklung vom assistierten zum hochautomatisierten Fahren stellen sich zunehmend auch ethische Fragen. Was geschieht zum Beispiel beim hochautomatisierten Fahren in einem Notfall, wenn sich ein Unfall nicht mehr vermeiden lässt? Entscheidet dann das Fahrzeug, ob es zu einem Auffahrunfall auf den vorausfahrenden Pkw kommt, oder ob bei einem Ausweichmanöver ein Fußgänger auf dem Gehweg erfasst wird? Können und wollen wir solche Entscheidungen Maschinen überlassen? Diese und weitere Fragen wurden beim 22. DVR-Forum „Automatisiertes Fahren und Ethik“ am 14. Juni 2016 in Berlin diskutiert.

DVR-Präsident Dr. Walter Eichendorf begrüßte die rund 240 Teilnehmerinnen und Teilnehmer der Veranstaltung, die von der FSD – Zentralstelle nach Straßenverkehrsgesetz (StVG) und der Deutschen Gesetzlichen Unfallversicherung (DGUV) unterstützt wurde. FSD-Geschäftsführer Jürgen Bönninger, gleichzeitig Vorsitzender des DVR-Vorstandsausschusses Fahrzeugtechnik, verglich das Steuerungssystem eines hochautomatisierten Fahrzeugs mit dem Chauffeur aus der Anfangszeit des Automobils: Von beiden erwarte man, dass sie sich gegenüber den Insassen loyal verhielten. „Ich möchte noch in den Genuss einer sicheren Chauffeurleistung der Maschine kommen“, äußerte sich der Experte hoffnungsfroh.

Vollautomatisiertes Fahren nicht vor 2030

Professor Klaus Kompaß von der BMW-Group wies darauf hin, dass wir vom autonomen Fahren noch weit entfernt seien. Die Entwicklung zum hochautomatisierten Fahren erfordere die Akzeptanz der Bevölkerung, Gesetze und ethische Normen müssten dementsprechend entwickelt werden. „Ein wirklich vollautomatisiertes Fahrzeug, in allen Fahrfunktionen, auf der Landstraße, in der Stadt, auf der Autobahn, in allen Komplexitätsgraden, erwarte ich persönlich nicht vor 2030“, sagte der Fahrzeugsicherheitsingenieur.

In der von der Journalistin Monika Jones (Deutsche Welle) geleiteten Podiumsdiskussion wurden mehrere Problemstellungen herausgearbeitet, die der Lösung bedürfen. Professor Oliver Bendel (Hochschule für Wirtschaft, Fachhochschule Nordwestschweiz) äußerte Skepsis, ob hochautomatisiertes Fahren in den Städten angesichts der Vielzahl der zu verarbeitenden Informationen möglich sei. Er plädierte für die Autobahn als passendes Einsatzgebiet. Auf die Frage, wer die Verantwortung bei einem Unfall übernimmt, antwortete der Wissenschaftler: „Ich glaube nicht, dass die Maschine diese Verantwortung wirklich tragen kann.“ Kein Algorithmus sollte über Leben und Tod entscheiden.

Debatte über „moralische“ Maschinen

Professor Volker Lüdemann (Hochschule Osnabrück) wies darauf hin, dass es im Hinblick auf die Verkehrssicherheit um eine Risikoverteilung zwischen den Autoinsassen und den Personen außerhalb des Fahrzeugs gehe. Neue Anbieter auf dem Automobilsektor wie beispielsweise Google sähen im automatisierten Fahren ein Geschäftsmodell, wobei man „in Goldgräberstimmung“ möglicherweise Opfer hinnähme. Die Debatte über sogenannte „moralische Maschinen“ habe gerade erst begonnen und auch bei den gesetzlichen Vorgaben stehe man noch ganz am Anfang. „Menschen werden die Autos programmieren müssen. Die Frage ist, nach welchen Regeln? Denn diese Regeln entscheiden darüber, was später passiert“, erläuterte er. „Die Ethik steckt im Algorithmus, der Teufel im Detail. Die Gesellschaft, nicht die Industrie, sollte entscheiden, mit welchen Vorgaben wir das selbstfahrende Auto ausstatten“, machte Lüdemann deutlich.

Mit dem Auftreten neuer internationaler Player würden andere Wertesysteme ins Spiel kommen, sagte Professor Jürgen Leohold von der Volkwagen AG. Damit müssten die heimischen Hersteller umgehen, ohne die eigenen Ansprüche aufzugeben. „Automatische Fahrfunktionen werden viele Unfälle vermeiden und Leben retten, aber das technisch perfekte System ist Utopie“, stellte der Leiter der VW-Konzernforschung klar.

Diskutiert wurde auch die Frage, ob hochautomatisierten Fahrzeugen unterschiedliche Temperamente einprogrammiert werden könnten.

Professor Kompaß verglich dies mit bereits vorhandenen Assistenzsystemen: Auch bei diesen könnte ja das Verhalten des Fahrzeugs dem Charakter des Fahrers angepasst werden. Wenn ein System so programmiert werde, dass der Fahrer es nicht akzeptiere und ausschalte, sei der Zweck allerdings verfehlt.

Technik soll dem Menschen dienen

Einen weiteren Aspekt sprach Professor Eric Hilgendorf (Universität Würzburg) an: Automatisiertes Fahren könne zu einem starken Humanitätsgewinn führen, wenn es dazu beiträgt, dass Menschen Auto fahren können, die es sonst nicht könnten und damit ihre Mobilität verbessert werde. Darüber hinaus brachte er eine Befürchtung zum Ausdruck: „Man muss aufpassen, dass Errungenschaften des Rechts nicht der technischen Entwicklung geopfert werden.“ Er sieht die Gefahr drohender Verluste sozialer Standards, zum Beispiel beim Arbeitnehmer- oder Datenschutz. Zudem seien automatisierte Fahrzeuge vernetzt und somit der Gefahr von Hackerangriffen ausgesetzt. Techniker und Gesetzgeber seien gefragt, dieses Problem zu lösen. Für ihn geht es um den Grundsatz: „Die Technik soll dem Menschen dienen, nicht umgekehrt. Solange dieser Grundsatz gewahrt wird, ist technische Innovation positiv zu bewerten.“

Schließlich ging es um die klassischen Dilemma-Situationen, die im Zusammenhang mit dem hochautomatisierten Fahren angeführt werden: Wie verhält sich das Fahrzeug in Notsituationen, bei denen ein Unfall unvermeidlich ist? Professor Lüdemann hielt es für eher unwahrscheinlich, dass man sich international auf eine gemeinsame Maschinenethik einigen könne angesichts der Unterschiede im Rechts- und Werteverständnis verschiedener Gesellschaften. Bei der Entscheidung über Notmanöver, die zu Verletzten und Getöteten führen, dürften Leben nicht gegeneinander abgewogen werden. Professor Hilgendorf hielt dem entgegen, dass man in manchen Fällen möglicherweise nicht umhin käme, Schäden an Personen zu quantifizieren und dies bei der Entscheidung einzubeziehen. Die Reaktion des Automaten würde zuerst auf die Schadensverhinderung programmiert. Wenn das nicht möglich sei, werde das Ziel ausgesucht, bei dem es den geringsten Schaden gebe.

Politik gibt nur Leitlinien vor

In einer zweiten Runde diskutierten Abgeordnete des Deutschen Bundestages die politischen Aspekte des Themas: Sebastian Steineke (CDU/CSU) wies darauf hin, dass die Datensicherheit und der Schutz der Fahrzeuge vor Hackerangriffen gewährleistet sein müsse. Stephan Kühn (Bündnis 90/Die Grünen) gab zu bedenken, dass es die größten Verkehrssicherheitsprobleme auf Landstraßen und in den Städten gebe, wo das automatisierte Fahren noch keine Lösung biete. Kirsten Lühmann (SPD) erklärte, die Voraussetzungen für hochautomatisiertes Fahren müssten gewährleistet sein und verwies auf den diesbezüglichen DVR-Beschluss. Es sei nicht Aufgabe des Bundestages, ethische Fragen im Detail zu regeln. Denkbar sei aber die Vorgabe von Leitlinien. Möglicherweise könnten Hersteller, die bei ihrer Arbeit auf konkrete ethische Fragen stoßen, an den Deutschen Ethikrat herantreten.

In seinem Schlusswort stellte Dr. Eichendorf fest, dass er von der Diskussion zum jetzigen Zeitpunkt keine endgültigen Lösungen erwartet habe: „Wir wollten das Thema befeuern, das ist uns definitiv gelungen“, sagte der DVR-Präsident. Gelöst werden müssten die Fragen der Daten- und Manipulationssicherheit sowie die Probleme, die sich aus unterschiedlichen Rechtsordnungen und Rechtsauffassungen in verschiedenen Ländern ergäben. Das größte Fragezeichen sah er beim Umgang mit den geschilderten Dilemma-Situationen. „Wir werden uns fragen müssen: Wer ist es, der den Programmierern sagt, welches der richtige Weg ist?“ Die Einbeziehung des Ethikrates könnte hier durchaus hilfreich sein.

Fotos: Jürgen Gebhardt



Downloads


pdf Professor Klaus Kompaß: Automatisiertes Fahren - Status Quo und Perspektiven


Bericht zum 22. DVR-Forum

DVR-NEWSLETTER



TIPPS

Sicherheitstrainings und
-programme nach Richtlinien des DVR
www.dvr.de/sht