Kolumnen

Lufthansa Exclusive: Maschinen ohne Moral

Stell dir vor, sagt Hermann, du sitzt in einem selbst fahrenden Auto, und das Auto fährt direkt auf ein Kind zu, das auf der Straße spielt. Du kannst nicht ausweichen, weil da Bäume stehen, oder weil du kurz vor einer Tunneleinfahrt bist.

Erschienen:

  • November 2015

Illustration:

90-LHE_Technikkolumne_RZ-1.jpg

Stell dir vor, sagt Hermann, du sitzt in einem selbst fahrenden Auto, und das Auto fährt direkt auf ein Kind zu, das auf der Straße spielt. Du kannst nicht ausweichen, weil da Bäume stehen, oder weil du kurz vor einer Tunneleinfahrt bist. Hermann macht eine Kunstpause: Das Auto muss also entscheiden, ob es geradeaus fährt und das Kind trifft. Oder ob es gegen die Tunnelwand rast, so das Kind rettet, aber du … Oder wenn das Auto die Wahl hat, wen es erwischt, zwei alte Menschen oder einen jungen? Hermanns Blick wird glasig, er könnte ewig so weiter machen … Das sind doch ethische Entscheidungen, sagt er. Und die sollen zwei Tonnen Blech mit Computerchips drin fällen?

Das Tunnelproblem, denke ich, ein techno-philosophischer Klassiker. Im richtigen Leben kommt so eine Situation vermutlich kaum vor. Aber es geht ja bei Ethik ums Prinzip, und das heißt hier: Solche Entscheidungen beruhen letztlich auf moralischen Werten. Wenn wir Menschen diese Werte nicht vorher festlegen, können wir auch nicht erwarten, dass die Maschinen, die Roboter und Autos, sie im konkreten Fall berücksichtigen.

Hermann ist skeptisch. Großepommesrotweiß, nuschelt er. Wir stehen an der Bratwurstbude auf einer Automesse, ich bestelle mangels genießbarer Alternativen dasselbe. Hermann arbeitet in der Forschung & Entwicklung eines großen Zulieferers, ihn muss Ethik interessieren, wenn nicht heute, dann sehr bald. Was heißt denn „in unserem Sinn“?, fragt er. Ist doch je nach Kultur, Religion oder Individuum unterschiedlich. Wobei, denkt er laut, vielleicht lassen sich auch universelle Werte festlegen.

Der Punkt ist für mich: Wir müssen anfangen, über diese Themen zu reden, sonst entscheiden wir dadurch, dass wir nicht explizit entscheiden, implizit eben doch – nur eben durch Verweigerung, mit unklarem Ausgang. Ingenieure, die heute an selbst fahrenden Autos arbeiten, an intelligenten virtuellen Assistenten oder an lernfähigen Robotern, sind keine Moralphilosophen. Sie sorgen durch ihre technischen Entscheidungen aber dafür, dass philosophische Rahmen gleich mit gesetzt werden. Im Fall des Tunnelproblems heißt das: Lassen wir das Auto entscheiden, sind wir als Fahrer automatisch entmündigt. „Paternalism by Design“ nennen das Experten.

Spricht man mit Technikern über solche Themen, nennen viele die sogenannten Robotergesetze von Isaac Asimov als Beispiel, an denen man sich ja orientieren könne – so erzählte es mir neulich der US-Autor John C. Havens, dessen neues Buch „Heartificial Intelligence: Embracing Our Humanity to Maximize Machines“ zum Thema im Februar erscheint. Diese drei Gesetze besagen (in Kurzform), dass ein Roboter kein menschliches Wesen verletzen oder durch Untätigkeit ermöglichen darf, dass einem menschlichen Wesen Schaden zugefügt wird. Dass ein Roboter den ihm von einem Menschen gegebenen Befehlen gehorchen muss – es sei denn, ein solcher Befehl würde mit Regel eins kollidieren. Und dass ein Roboter seine eigene Existenz beschützen muss, solange dieser Schutz nicht mit Regel eins oder zwei kollidiert.

Klingt zunächst logisch und praktikabel. „Aber Asimovs Texte sind Science-Fiction“, sagte Havens, „außerdem geht es in seinen Geschichten ständig um Paradoxien, in denen die Robotergesetze nicht funktionieren.“ Das Tunnelproblem ist so ein Beispiel. Havens Mantra, das er bei Vorträgen vor Technologen und Managern stets wiederholt, lautet: „Wie sollen Maschinen wissen, was uns wichtig ist, wenn wir es nicht selbst wissen?“

Welche moralischen Regeln müssen wir Artificial Intelligence (AI) auferlegen, wenn diese immer mehr Entscheidungen für uns trifft? Wer definiert diese Regeln? Das sind Fragen, denen sich nicht nur Autobauer stellen müssen, Software-Programmierer oder Chip-Hersteller. Es sind vor allem Fragen, die Führungskräfte beschäftigen sollten, denn unsere Entscheidungen beruhen schon heute häufig – und künftig zunehmend – auf Daten und Algorithmen, oder sie werden uns durch automatisierte Prozesse gleich komplett abgenommen.

In den USA rufen erste Firmen „Ethics Advisory Boards“ für AI-Produkte ins Leben – sogar Google hatte eins angekündigt, nachdem es das britische Start-up DeepMind gekauft hat. Wir hingegen stecken oft noch in alten Debatten fest: In deutschen Feuilletons wogte noch vor Kurzem ein Streit zwischen Philosophen und Hirnforschern unter der Fragestellung: Determinismus oder Willensfreiheit? Und Managementberater, sagt Hermann, füllen ihre teuren Seminare mit Spieltheorien oder Modellen der Entscheidungsfindung.

Solche Diskussionen könnten schon bald obsolet sein, wenn wir merken, dass wir wichtige Wahlmöglichkeiten quasi nebenbei an Roboter und Algorithmen delegiert haben – und diese womöglich gegen unsere Werte handeln. Nicht weil sie – wie in dem Film „Terminator“ – heimlich die Weltherrschaft wollen. Sondern weil wir schlicht vergessen haben, ihnen beizubringen, was diese Werte eigentlich sind. Hermann deutet auf den Essendstand hinter mir und sagt: Entscheidungsfindung, jetzt! Warmes Pils oder mieser Kaffee? Ich bin ratlos. Beim Messe-Catering stünde selbst die klügste Maschine vor unlösbaren Dilemmata.