BayernLB

Sagen Sie mal, Herr Bendel ... urteilt die Maschine bald über Menschenleben?

Selbstfahrende Autos, Service- oder Industrieroboter. Maschinen können so manches besser als jeder Mensch. Doch dürfen sie das auch? Ein Gespräch mit dem Maschinenethiker Oliver Bendel über die Moral der Apparate. Von Ute Klein

© Dominic Büttner

Wanderer zwischen den Welten

Oliver Bendel, 49, ist Experte in den Bereichen Informations- und Maschinenethik. Nach seinem Studium der Philosophie, Germanistik und Informationswissenschaft promovierte er an der Universität St. Gallen im Fach Wirtschaftsinformatik. Heute lehrt er als Professor der Fachhochschule Nordwestschweiz FHNW in Basel, Olten und Brugg-Windisch. Er lebt in Zürich und ist neben seiner wissenschaftlichen Arbeit auch als Schriftsteller tätig.

Maschinen handeln wie Fundamentalisten. Sie wenden Regeln, die sie finden, quasi blind an.
Oliver Bendel, Maschinenethiker

Sagen Sie mal, Herr Bendel ... urteilt die Maschine bald über Menschenleben?

Das will ich nicht hoffen. Und deshalb muss die Maschinenethik zum autonomen Fahren, auf das Sie offenbar anspielen, auch Stellung beziehen.

Nur zu.

Grundsätzlich ist autonomes Fahren eine tolle Sache. Aber nur auf den Autobahnen. Der Stadtverkehr ist viel zu komplex. Dort gibt es Gefahrensituationen, mit denen eine Maschine schlicht überfordert wäre. Ein selbstfahrendes Auto sollte niemals in eine Situation geraten, in der heikle moralische Fragen zu entscheiden sind. Wie soll die Maschine beispielsweise reagieren, wenn ein Unfall unvermeidbar ist? Wer soll dann geschont werden? Die Insassen oder der Fußgänger? Das ist ein sehr ernstzunehmendes ethisches Problem.

Was ist Maschinenethik eigentlich?

Zunächst einmal: Ethik ist die Disziplin, und ihr Gegenstand ist die Moral. Einfach gesagt: Ethik treibt man, Moral hat man. Moral, das sind die Überzeugungen, die wir hegen, etwa zu Verantwortung und Gerechtigkeit, die Verhaltensregeln, Wertvorstellungen und Wertmaßstäbe, die wir haben, die Ideen in Bezug auf das Gute und das Böse. Normalerweise bezieht sich Ethik auf die Moral von Menschen. Maschinenethik beschäftigt sich mit der Moral von Maschinen.

Maschinen haben eine Moral?

Die klassische Ethik richtet sich auf den Menschen als Subjekt der Moral. Was kann er, was soll er, was darf er? Aber mit den Maschinen, die wir gerade erfinden, entstehen neue Subjekte der Moral. Ich verwende den Begriff der maschinellen Moral gerne ähnlich wie den der maschinellen oder künstlichen Intelligenz. Es sind demnach neue, merkwürdige und fremdartige Subjekte, über die wir intensiv diskutieren müssen.

Weil Roboter bald stellvertretend für den Menschen handeln werden?

Im Prinzip ja. Wir transferieren unsere moralischen Vorstellungen auf die Maschine. Sie soll in Situationen, die wir antizipiert haben, Regeln anwenden, die wir im Vorhinein definiert und als adäquat betrachtet haben.

Klingt soweit doch ganz gut ...

... aber eben nur bis zu dem Punkt, wo sie zur selbstlernenden Maschine wird, die sich eigene Regeln geben kann, die wir möglicherweise gar nicht vorausgesehen haben. Wir können ihr zunächst nur einen Teil unserer menschlichen Moral mitgeben, keine Empathie und auch keine Gefühle. Aber theoretisch kann sie ihre eigene Moral entwickeln. Dadurch stellt sich die Frage der Moral ganz neu.

Von welcher moralischen Qualität reden wir?

Maschinen haben im Moment eine Art funktionaler Moral. Ihnen fehlt das Bewusstsein, die Reflexion im psychologischen Sinne. Sie handeln wie ein Fundamentalist, der in einem schlauen Buch nachschlägt, eine Regel findet und sie dann quasi blind anwendet. Man darf auch sagen: Der Fundamentalist agiert und reagiert maschinenähnlich. Eine selbstlernende Maschine kann, wie gesagt, über die vorgegebenen Regeln hinausgehen. Darin liegt eine gewisse Gefahr.

Wie lässt sich diese Gefahr bannen?

Indem wir den Maschinen nicht nur konkrete Regeln mitgeben, sondern Metaregeln, die sie gewissermaßen deckeln. Man muss ihnen von Anfang an beibringen: Bestimmte Dinge machst du nie! So hätte man dem Chatbot „Tay“, einem Softwareroboter von Microsoft, der sich zum Hitler-Fan entwickelte, einfach beibringen müssen, Wörter wie „Hitler“ nie in den Mund zu nehmen. „Tay“ war ein selbstlernendes System. Eine Maschine, die immer klüger werden sollte, je länger sie mit ihrer Umgebung kommunizierte. Sie ist in schlechte Gesellschaft geraten und hat sich Dinge angeeignet, die unmoralisch sind. Um das zu verhindern, muss man das System deckeln. Sprachlich und auch in Bezug auf seine Handlungen.

Sie selbst haben auch einen Lügenbot programmiert.

Wir wollten damit zeigen, dass es möglich ist, eine Maschine zu bauen, die systematisch lügen kann. Der amerikanische Wissenschaftler Ron Arkin, den ich kenne und der immer wieder mit dem Pentagon zusammenarbeitet, entwickelt Kampfroboter, die betrügen können. Er will diese Maschinen im Kriegsfall einsetzen. Sie sollen den Gegner verwirren, ablenken und täuschen. Das will ich mit meinem Chatbot nicht. Im Gegenteil: Dieser Chatbot soll am Ende dazu beitragen, dass wir verlässliche und vertrauenswürdige Maschinen entwickeln. Aber das geht natürlich nur, wenn wir wissen, wie solche Maschinen funktionieren und was bei einer Vernetzung und Verselbstständigung passieren kann.

Zum Beispiel?

Ich unterscheide zwischen geschlossenen, halboffenen und offenen Welten. Mein Saugroboter „Ladybird“ agiert in der mehr oder weniger geschlossenen, übersichtlichen Welt einer Wohnung. Dort kann er theoretisch sogar eigene Regeln ableiten, wenn es ihm gefällt. Er wird keinen großen Schaden anrichten, sofern man am Anfang bestimmte Grundregeln festlegt. Im Moment folgt er einfachen Regeln. Er soll vor allem, daher sein Name, keine Marienkäfer einsaugen, ja überhaupt keine kleinen Tiere töten. Aber wovon schaut sich das selbstlernende Auto in der offenen Welt etwas ab? Von den Rasern? Oder den Leuten, die über rote Ampeln fahren? Dass die ersten Autobauer jetzt schon mit künstlich intelligenten Systemen experimentieren, halte ich für äußerst bedenklich, zumindest wenn es am Ende um Menschenleben geht. Bei Tierbremsungen sind solche Systeme eine gute Idee.

Ihr Vorschlag?

Konzentrieren wir uns doch zunächst einmal auf Lösungen, die Nutzen stiften und durch die wir Erfahrungen sammeln können. Auf Maschinen, die selbstständig durchs Feld pflügen und vor einem Rehkitz stoppen. Auf Windkraftanlagen, die Vogelschwärme erkennen und sich dann automatisch abstellen. Oder auf Überwachungsroboter, die auf dem Betriebsgelände patrouillieren, zumindest nachts. Das ist alles wunderbar. Diese Roboter sollen in einer halboffenen Welt das machen, was auch wir Menschen tun würden. Machen wir doch nicht gleich das ganz große Fass auf, wie es beim autonomen Fahren im Stadtverkehr vonnöten wäre. In geschlossenen und halboffenen Welten kann ich Robotern eine hohe Autonomie und moralische Urteile zugestehen. Aber draußen in der offenen Welt – nein!

Weil es verantwortungslos wäre?

Ganz genau. Natürlich trifft auch der Mensch in bestimmten Situationen falsche Entscheidungen. Aber wir dürfen uns nicht fortwährend aus der Verantwortung stehlen. Wenn wir als Menschen etwas tragen müssen, dann ist es die Verantwortung für unser Handeln und unsere Entscheidungen, darunter vor allem für die schweren. Nur der Mensch trägt mit seinem Tun auch Schuld. Maschinen kennen keine Schuld. Natürlich kann man bei einfachen Maschinen den Programmierer oder den Hersteller zur Verantwortung ziehen. Das wird aber schwierig. Und bei selbstlernenden Maschinen wird es praktisch unmöglich.

Schaffen wir uns mit den Robotern selbst ab?

Industrie- und Serviceroboter werden den Menschen vielerorts ersetzen. Das ist ja auch eine große Chance: Warum sollte der Roboter nicht die Hälfte der Arbeit übernehmen? Wir bräuchten freilich weiterhin eine Existenzsicherung, etwa durch ein bedingungsloses Grundeinkommen. Aber wir haben ja nicht nur Roboter, die uns ersetzen ...

... sondern?

Auch die, die uns unterstützen, etwa im Pflegebereich. Ein Roboter kann einen 150-Kilo-Patienten leichter umbetten als jeder Mensch. Das ist großartig. Die Prototypen, die es gibt, arbeiten im Tandem mit uns. Oder intelligente Systeme, die Menschen mit Behinderung unterstützen, Hightech-Prothesen, Exoskelette oder Rollstühle, die über Gedanken gesteuert werden. Alles phantastisch.

Und was macht Ihnen dabei Sorgen?

Dass uns diese Pflegeroboter, Sicherheitsroboter und autonomen Autos ständig beobachten werden. Wer sammelt all diese Daten? Und was geschieht im Anschluss damit? Was ist, wenn weitere Systeme wie die Gesichtserkennung hinzukommen, die jeden Menschen in ein bestimmtes Raster einordnen? Sorgen macht mir auch das Hacken von autonomen Systemen, von Fahrzeugen oder Kampfrobotern. Jemand dringt in die Systeme ein, bringt sie zum Absturz und steuert uns auf einen Abgrund zu. Eine weitere Frage ist, wie sich die Gesellschaft insgesamt dadurch verändert. Werden sich Menschen mit weniger Geld im Alter künftig mit Robotern zufriedengeben müssen, während sich die Reichen menschliche Kommunikation und Zuwendung noch leisten können?

Und wie lautet Ihre Vision für 2027?

Es wird weniger Arbeit für die Menschen geben. Im guten wie im schlechten Sinne. Wir werden eine Vielfalt von Robotern kennenlernen, wie wir sie uns heute noch gar nicht vorstellen können. Aber in vielen Bereichen halte ich die Erwartungen für deutlich zu hoch gesteckt. Chatbots etwa können im Hintergrund etliche Sachen für uns erledigen. Doch in den entscheidenden Situationen der Kundenkommunikation ist der Mensch meist besser. Auch die Erwartungen, die an das autonom fahrende Auto gestellt werden, dürften zum Teil enttäuscht werden. Der Fahrer bleibt noch für eine Weile der Fahrer. Autonomes Fahren wird vielleicht schon bald Realität sein, aber nur auf der Autobahn und nicht in der Stadt.