DETECON Consulting

Artikel

Selbstfahrende Autos benötigen Regeln für ethische Entscheidungen

Abstandsassistent, Stauassistent, Spurassistent, Einparkhilfe, selbstfahrende Autos – heutige Fahrzeuge übernehmen zunehmend die Aufgaben des Autofahrers und sorgen dafür, dass Mobilität nicht nur komfortabler, sondern auch sicherer wird. Dennoch werfen aktuelle Vorfälle mit wie die Unfälle mit Teslas Autopilot Fragen auf. In letzter Zeit kam es unter anderem in Deutschland und USA zu Unfällen mit Teslas Autopilot, dessen Assistenzfunktionen derzeit sowohl auf Kamerabilder als auch auf Radaraufnahmen setzen. Trotz ausgefeilter Technik kommt es zu Kollisionen zwischen den nahezu selbstfahrenden Autos und anderen Verkehrsteilnehmern. Solche Vorkommnisse zeigen, dass Unfälle nie ganz vermeidbar sein werden, sei es aufgrund von technischem oder menschlichem Versagen.

Wie reagieren autonome Fahrzeuge in Gefahrensituationen?

Es stellt sich auch zunehmend die Frage, wie autonome Fahrzeuge im Gefahrenmoment reagieren sollten. Tritt eine Gefahrensituation ein, kann die Reaktionsgeschwindigkeit des autonomen Systems genutzt werden, den Schaden zu verhindern oder zumindest zu minimieren. Während Menschen in ähnlichen Situationen intuitiv handeln, benötigen Computersysteme Regeln, um sich situationsbedingt korrekt zu verhalten.

Würde ein selbstfahrendes Auto beispielsweise mit hoher Geschwindigkeit auf ein stehendes Auto zufahren, so könnte eine komplexe Sensorik die drohende Gefahr identifizieren und an die Steuereinheit übermitteln. Um das Unfallrisiko zu senken, könnte das Fahrzeug nun ein Brems- oder Ausweichmanöver durchführen.

Damit das System auf eine derartige Gefahrensituation reagieren kann, benötigt es jedoch neben der entsprechenden Sensorik einen Algorithmus zur Ableitung einer angemessenen Reaktion. Wenn es dabei zu Entscheidungen um Leben und Tod kommt, wird von ethischen Entscheidungen gesprochen.

Bezogen auf das oben stehende Beispiel wäre eine ethische Entscheidung notwendig, wenn das Szenario um folgende Parameter erweitert werden würde: Hinter dem selbstfahrenden Auto fährt ein weiteres Fahrzeug. Der Korridor für das alternative Ausweichmanöver kollidiert mit der Route eines Fahrradfahrers. Sowohl das Fahrzeug hinter dem autonomen Auto, als auch der Fahrradfahrer können nicht mehr rechtzeitig reagieren.

In solchen Fällen würde das System bei jeder Handlungsalternative einen Verkehrsteilnehmer gefährden oder gar potenziell verletzen. Das System müsste folglich den potenziell entstehenden Schaden, Überlebenswahrscheinlichkeiten oder andere Faktoren abwägen, um eine Entscheidung für eine entsprechende Reaktion in der Dilemma-Situation zu treffen. Dazu wäre ebenfalls ein entsprechendes Regelwerk notwendig.

Mit solchen Regeln beschäftigt sich seit Ende September eine Ethikkommission zum automatisierten Fahren. Die Aufgabe der Kommission ist es, Leitlinien für die Programmierung automatisierter Fahrsysteme zu entwickeln. Erste Ergebnisse werden für den Sommer 2017 erwartet.

Entscheidungsgrundlagen für selbstfahrende Autos

Neben der Ethikkommission beschäftigen sich bereits auch Automobilhersteller mit ethischen Entscheidungsgrundsätzen selbstfahrender Autos. So hatten Medien kürzlich darüber berichtet, Daimler vertrete die Meinung, Insassen selbstfahrender Fahrzeuge sollten in Gefahrensituationen von selbstfahrenden Autos priorisiert behandelt und geschützt werden. Für das oben genannte Beispiel würde dies bedeuten, dass sich das System für die Variante entscheidet, bei der dem Insassen im autonom fahrenden Fahrzeug der geringste Schaden zugefügt wird.

Diese Aussage wurde jedoch mittlerweile auf dem Unternehmensblog von Mercedes Benz dementiert. Dort heißt es: „[…] Keinesfalls haben wir bereits eine Entscheidung zu Gunsten der Fahrzeuginsassen getroffen, sondern halten weiterhin an dem Grundsatz der möglichst hohen Sicherheit für alle Verkehrsteilnehmer fest. Eine Entscheidung für einen Menschen und damit gegen einen anderen ist in Deutschland rechtlich nicht zulässig. Auch in anderen Ländern gibt es ähnliche Auffassungen. […]“

Derzeit gibt es noch viel Gesprächsbedarf in Bezug auf ethische Regeln für autonome Fahrzeuge. Dennoch werden autonome Systeme, ganz gleich ob Fahrzeuge oder Maschinen, künftig zunehmend Regeln benötigen, welche die oben beschriebenen ethischen Entscheidungen abwägen können. Digitalverantwortliche müssen sich daher im Klaren sein, dass die Einführung künstlicher Intelligenz auch die Übernahme von Verantwortung bedeuten kann und die Klärung der damit verbundenen ethischen Fragestellungen nicht trivial ist. Das Implementieren ethischer Regeln und ein angemessenes Risikomanagement wird daher langfristig eine weitere Herausforderung der digitalen Transformation darstellen.

Das könnte Sie auch interessieren

Artikel

Wie Fahrzeughersteller bei Rückrufen von Digitalisierung profitieren können.

Total Recall

Mehr lesen
Studie

Zur Zukunft der Mobilität 2025+

Mobilität.Erfüllung.System.

Mehr lesen
Article

Der Boost für Connected Car Dienste

Autonomes Fahren

Mehr lesen
Artikel

IT-Sicherheit wird zum DNA-Bestandteil von Produkten und Geschäftsmodellen.

IoT: Ingenieur trifft IT-Experten

Mehr lesen
Artikel

Vom Smart Parking zur Smart City

Mehr lesen
Artikel

Interview mit Zhongyuan Zhang, Gründer und GF Shanghai Levson Group Ltd.

„Wir brauchen ‘High-quality created in China’”

Mehr lesen
zu Publikationen