Moral und Maschine

Vorschaubild

09.07.2017 Die Entwicklung von computergesteuerten Autos schreitet voran. Auf dem Weg zum selbstfahrenden Auto sind allerdings nicht nur technische Herausforderungen zu meistern. werden.

Die Zukunft lässt sich bereits in der Gegenwart besichtigen. Anschaulich etwa vor einiger Zeit,morgens auf der A9 zwischen Ingolstadt und München in Gestalt eines weißen Audis A7: Das Fahrzeug fädelte sich in den Berufsverkehr ein, es beschleunigte, es bremste, es scherte aus, es scherte ein. Von außen betrachtet: unspektakulär. Ist es aber nicht. Denn nicht ein Mensch steuerte den Wagen. Sondern eine Maschine. Der A7 fuhr vollständig autonom.

Noch ist alles Testphase. Noch ist die Technik nicht ausgereift - auf schreckliche Weise zeigte sich das im Mai 2016. In Florida kam es mit einem vom Computer gesteuerten Auto der Marke Tesla zu einem tödlichen Unfall.Und doch: Dass es in Zukunft serienmäßig selbstfahrende Autos geben wird, ist keine Science Fiction. Es ist eine Frage der Zeit.

Menschliches Fehlverhalten Hauptunfallursache
So haben etwa die großen Autobauer, VW, BMW und Daimler, jeweils für den Beginn des nächsten Jahrzehnts serienreife Autos angekündigt, die zumindest unter bestimmten Bedingungen im Straßenverkehr ohne Fahrer auskommen sollen. Die technischen Systeme, die für sicheres führerloses Fahren notwendig sind,werden in rasantem Tempo entwickelt: Bereits heute gibt es leistungsstarke Sensoren, praxistaugliche Kamerasysteme, ausgeklügelte Assistenzsysteme - und das ist ein Segen: Für mehr als 90 Prozent aller Unfälle ist menschliches Fehlverhalten verantwortlich. Der Computer ist niemals müde, abgelenkt, unvorsichtig, er rechnet präzise vor sich hin.

Moralisches Dilemma Allerdings:Auf dem Weg zum selbstfahrenden Auto sind nicht einzig und allein technische Herausforderungen zumeistern. Zu lösen sind ebenso ethische Probleme. Diese entzünden sich an einer sehr konkreten Frage. Sie ist, das diskutierte Professor Christoph Hubig von der TU Darmstadt mit den Teilnehmern einer von IG Metall und dem Institut für die Geschichte und Zukunft der Arbeit ausgerichteten Robotik-Konferenz am Bodensee keineswegs leicht zu beantworten. Die Frage lautet: Was soll das autonom fahrende Auto tun, wenn ein lebendes Hindernis auftaucht und der Bremsweg nicht ausreicht? Wenn etwa ein Kind auf die Straße springt - und der Computer plötzlich die Wahl hat, weiter bremsend geradeaus zu fahren und das Kind zu treffen oder nach links in den Gegenverkehr zu ziehen oder nach rechts auf den vollen Bürgersteig zu steuern.

Zonen ausschließlich für autonomen Verkehr
Christoph Hubig beschreibt diese Situation als "moralisches Dilemma." Es ist nicht auflösbar. "Daraus resultiert die Pflicht, alles Erdenkliche zu tun, um die Entstehung solcher Dilemmata weitest möglich zu vermeiden." Da das Dilemma im Wesentlichen aus der "Gemengelage eines durchmischten Verkehrs" von autonom und nicht-autonom fahrenden Autos resultiert, plädiert Hubig dafür, die Systeme in der Übergangsphase zu trennen. Gesicherte Spuren auf der Autobahn sollten für rein autonomen Verkehr vorbehalten sein, Zonen in Innenstädten könnten ausschließlich für selbstfahrende Autos reserviert werden.

Und wenn doch ein Kind auf die Straße springt? Dann muss der Rechner entscheiden, sich verhalten. Entweder auf Grundlage von Algorithmen, die der Mensch programmiert hat - und über die es zuvor eine gesellschaftliche Debatte geben muss. Oder mittels künstlicher Intelligenz der Maschine. Dabei, so Hubig, könne der Computer "moralisches Verhalten simulieren", allerdings nur im Hinblick auf die "Optimierung von Chancen und Risikoverhältnissen". Nur in dem Bereich, in dem "quantifizierende Kalküle" greifen.

Hubig: "Mensch bleibt letzte Instanz"
Letztlich bedeuten solche Entscheidungen das Gewichten von Menschenleben, und das würde unsere Rechtstradition verschieben: von einer Ethik, die jedes Gewichten verbietet, weil jedes Menschenleben Zweck in sich selbst ist, hin zu einer Moral des kleineren Übels. Die Frage ist, ob wir das wollen. Mit "moralischer Kompetenz" zumindest hat das nichts zu tun. Die sei, weil es hier nicht um Prozesse der Informationsverarbeitung und des Wissens geht, Rechnern verwehrt. "Der Mensch", sagt Christoph Hubig, "bleibt letzte Instanz."

Letzte Änderung: 03.07.2017