Maschinen können bald moralisches Verhalten von Menschen imitieren. Das zeigt eine aktuelle Studie des Instituts für Kognitionswissenschaft der Universität Osnabrück.
Autonome selbstfahrende Autos werden die erste Generation von Robotern sein, mit den Menschen ihren alltäglichen Lebensraum teilen. Für dieses Miteinander sind Regeln für und Erwartungen an autonome Systeme notwendig, die definieren, wie sich solche Systeme in kritischen Situationen verhalten sollen. Das Institut für Kognitionswissenschaft der Universität Osnabrück hat jetzt im Magazin Frontiers in Behavioral Neuroscience eine Studie veröffentlicht, die zeigt, dass menschlich-ethische Entscheidungen in Maschinen implementiert werden und autonome Fahrzeuge bald moralische Dilemmata im Straßenverkehr bewältigen können („Using Virtual Reality to Assess Ethical Decisions in Road Traffic Scenarios: Applicability of Value-of-Life-Based Models and Influences of Time Pressure”). Diese Osnabrücker Erkenntnisse widersprechen bisherigen Annahmen: Im Zuge der Debatte zur Modellierbarkeit von moralischen Entscheidungen hat eine Initiative des Bundesministeriums für Transport und Digitale Infrastruktur (BMVI) 20 ethische Prinzipien formuliert; das achte Prinzip dieses BMVI-Berichtes gründet auf der Annahme, dass moralische Entscheidungen nicht modellierbar sind.
Verhalten analysieren und statistisch beschreiben
„Um Regeln oder Empfehlungen definieren zu können sind zwei Schritte notwendig“, erklärt Prof. Dr. Gordon Pipa, einer der leitenden Wissenschaftler der Studie. Zunächst müsse man menschliche moralische Entscheidungen in kritischen Situationen analysieren und verstehen. Danach müsse man dieses menschliche Verhalten statistisch beschreiben, um Regeln ableiten zu können, die in Maschinen genutzt werden können. Für die Realisierung beider Schritte haben die Autoren eine virtuelle Realität genutzt und das Verhalten von Versuchspersonen in simulierten Verkehrssituationen beobachtet. Die Teilnehmer der Studie fuhren in dieser virtuellen Realität an einem nebligen Tag durch die Straßen eines typischen Vorortes. Im Verlauf der Experimente kam es zu unvermeidlichen und unerwarteten Dilemma-Situationen, bei denen Menschen, Tiere oder Objekte als Hindernisse auf den Fahrspuren standen – um den Hindernissen auf einer der beiden Fahrspuren ausweichen zu können, mussten die Teilnehmer eine moralische Abwägung treffen. Die beobachteten Entscheidungen haben die Forscher dann durch eine statistische Analyse ausgewertet und in Regeln übersetzt.
Die Ergebnisse der Experimente weisen den Forschern zufolge darauf hin, dass im Rahmen dieser unvermeidbaren Unfälle moralisches Verhalten durch eine einfache Wertigkeit des Lebens erklärt werden kann – für jeden Menschen, jedes Tier und jedes Objekt. Leon Sütfeld, der Hauptautor der Studie, erklärt dies so: „Das menschliche moralische Verhalten lässt sich durch den Vergleich von einer Wertigkeit des Lebens, das mit jedem Menschen, jedem Tier oder jedem Objekt assoziiert ist, erklären bzw. mit beachtlicher Präzision vorhersagen. Das zeigt, dass menschliche moralische Entscheidungen prinzipiell mit Regeln beschrieben werden können und dass diese Regeln als Konsequenz auch von Maschinen genutzt werden könnten.“
Regeln oder komplexes Abwägen
Algorithmen lassen sich entweder durch Regeln beschreiben oder durch statistische Modelle, die mehrere Faktoren miteinander in Bezug setzen können, so die Forscher. Gesetze beispielsweise seien regelbasiert. Menschliches Verhalten und moderne künstliche intelligente Systeme hingegen würden eher auf einem komplexen statistischen Abwägen beruhen. Dieses Abwägen erlaube es beiden – dem Menschen und den modernen künstlichen Intelligenzen – auch neue Situationen bewerten zu können. Eine solche dem menschlichen Verhalten ähnliche Methodik haben die Osnabrücker Forscher zur Beschreibung der Daten genutzt. „Deshalb müssen die Regeln nicht abstrakt am Schreibtisch durch einen Menschen formuliert, sondern aus dem menschlichen Verhalten abgeleitet und gelernt werden“, sagt Sütfeld: „So stellt sich die Frage, ob man diese nun gelernten und konzeptualisierten Regeln nicht auch als moralischen Aspekt in Maschinen nutzen sollte.“
Prof. Dr. Peter König, weiterer Autor dieser Veröffentlichung, weist jedoch darauf hin, dass zwei moralische Dilemmata weiter ungelöst sind, obwohl „wir jetzt wissen, wie wir moralische Entscheidungen in die Maschinen implementieren können: Erstens müssen wir uns über den Einfluss von moralischen Werten auf die Richtlinien für maschinelles Verhalten entscheiden. Zweitens müssen wir uns überlegen, ob wir es wollen, dass Maschinen sich (nur) menschlich verhalten sollen.“ (ph)
Ein Thema des VWI-Arbeitskreises Automotive.