Partner von:

"Lassen wir die Finger davon"

Roboter Künstliche Intelligenz [Quelle: Unsplash.com, Alex Knight]

Quelle: Unsplash.com, Alex Knight

Wie gefährlich ist ein selbstfahrendes Auto? Darf mich ein Pflegeroboter füttern? Mit diesen Fragen beschäftigt sich der Maschinenethiker Oliver Bendel. Ein Gespräch über die Moral künstlicher Intelligenz

DIE ZEIT: Mit Donald Trump könnten Sie gute Geschäfte machen, oder?

Oliver Bendel: (lacht) Ich kann mir denken, auf was Sie hinauswollen ...

Es geht um Ihren Lügenbot. Sie haben eine Münchhausen-Maschine konstruiert, mit der man Fake-News erzeugen kann.

Das kann Herr Trump auch ohne mich. Aber Sie haben recht, mein Lügenbot kann im Netz lügen wie gedruckt, zum Beispiel was die Tourismusregion Basel anbelangt, wo ich arbeite. Er behauptet etwa, dass es in Basel tolle Berge gibt, was natürlich nicht stimmt. Oder dass in Basel gerade die Sonne scheint, obwohl es in Wirklichkeit in Strömen regnet.

Wo kann man den Lügenbot treffen?

Er war ein halbes Jahr unter liebot.org und luegenbot.ch im Netz aktiv. Zurzeit fehlen uns die finanziellen Ressourcen, um ihn weiter zu betreiben. Aber voraussichtlich für Herbst ist ein Nachfolgeprojekt geplant.

Was wollen Sie damit demonstrieren?

Ich will zeigen, dass es ohne Weiteres möglich ist, moralische und unmoralische Maschinen zu konstruieren – und auf Gefahren hinweisen: Maschinen könnten etwa bestimmte Gerüchte und Lügen verbreiten und verstärken.

Social Bots, die Diskussionen in sozialen Netzwerken beeinflussen, gibt es ja bereits. Kürzlich hat der Chatbot "Tay", ein Software-Roboter von Microsoft, sich als Hitler-Fan entpuppt.

Der Microsoft-Bot war, im Gegensatz zu meinem Lügenbot, ein selbstlernendes System. Eine Maschine, die immer klüger werden sollte, je mehr sie mit ihrer Umgebung kommuniziert. Da kann es passieren, dass sie gewissermaßen in schlechte Gesellschaft gerät und sich Dinge abguckt, die unmoralisch sind. Um das zu verhindern, muss man das System deckeln. Den Bot so einstellen, dass er manche Wörter erst gar nicht verwendet.

Kann man bei Computerprogrammen oder Robotern überhaupt von Moral oder Unmoral sprechen? Können Maschinen gut oder böse sein?

Da sind wir mittendrin in der Maschinenethik. Wir kennen seit 2.500 Jahren die Ethik als eine Disziplin, die sich ausschließlich auf Menschen richtete. Jetzt haben wir es mit neuen Subjekten der Moral zu tun, eben Maschinen. Natürlich sind sie nicht gut oder böse, weil sie keinen eigenen Willen, kein Bewusstsein haben. Aber sie treffen, teilautonom oder autonom, bestimmte moralisch relevante Entscheidungen.

Nehmen wir das autonome Fahren. Es wirft bestimmte moralische Fragen auf. Bundesverkehrsminister Alexander Dobrindt hat dazu eigens eine Ethikkommission ins Leben gerufen.

Es geht beim autonomen Fahren darum, wie sich diese Maschinen in Grenzsituationen verhalten. Sollen sie, wenn sich ein Unfall anbahnt, eher die Insassen des Autos schonen oder die Fußgänger? Und wenn ja, welche Fußgänger? Sollen sie eine Auswahl treffen und nach Alter, Geschlecht, Ethnie, Nützlichkeit qualifizieren? Oder sollen sie einfach quantifizieren, also abzählen? Ich habe dazu eine ziemlich eindeutige Meinung.

Und die wäre?

Ich halte das autonome Fahren grundsätzlich für eine tolle Sache. Aber ich würde diese Technik auf die Autobahnen beschränken. Im Stadtverkehr gibt es zu viele heikle Gefahrensituationen, mit denen eine Maschine schlicht überfordert wäre. Menschen entscheiden oft situativ und intuitiv. Ich will eine Maschine erst gar nicht in die Situation bringen, heikle moralische Fragen entscheiden zu müssen. Soll ein selbstfahrendes Auto, wenn ein Crash unvermeidlich ist, den 80-jährigen Großvater am Leben lassen oder das 18-jährige Mädchen? Vielleicht ist der 80-Jährige ein Wissenschaftler, dessen größte Entdeckung erst noch bevorsteht. Hat er mehr oder weniger Recht, weiterzuleben? Unlösbare Fragen. Lassen wir die Finger davon.

Wie sieht es aus bei bewussten, sinnvollen Regelverstößen? Wenn ich, um einen Fahrradfahrer zu überholen und damit kein unnötiger Stau entsteht, die durchgezogene Linie überfahre ...

Ein selbstlernendes System würde damit kaum zurechtkommen. Die Maschine würde im besten Fall wohl einfach stehen bleiben, weil sie nicht mehr weiß, welche Regeln gelten und welche nicht. Gut möglich, dass es mit autonomen Autos noch mehr Staus gäbe als heute.

Warum haben Sie Ladybird konstruiert, einen tierfreundlichen Staubsauger?

Ich interessiere mich sehr für Maschinen, die einzelne Personen repräsentieren. Ich persönlich möchte nicht, dass mein Staubsauger Marienkäfer oder andere Insekten tötet. Deshalb ist er so programmiert, dass er die Tiere erkennt und anhält, wenn er auf sie trifft. Der Roboter macht jetzt also das, was ich selbst tun würde, wenn ich staubsaugen würde. Damit erledigt sich etwa das Problem einer universellen Moral, die es, von einigen Übereinstimmungen wie der Tötungshemmung abgesehen, nicht gibt.

Würden Sie sich von einem Pflegeroboter füttern oder den Allerwertesten abwischen lassen?

Warum nicht? Bei Pflegerobotern stellt sich allerdings die Frage, wie sie auf problematische Wünsche ihrer Schutzbefohlenen reagieren sollen. Soll ein Roboter lebenserhaltende Maschinen abschalten, wenn der Patient das wünscht?

Das erinnert an das erste Robotergesetz des Science-Fiction-Autors Isaak Asimov von 1942: "Ein Roboter darf keinen Menschen verletzen oder durch Untätigkeit zu Schaden kommen lassen."

Asimov war ein echter Visionär. Für ihn war das alles aber nur Fiktion.

Werden Armeen einmal nur noch aus Kampfrobotern bestehen?

Es mag Argumente für den Einsatz teilautonomer oder autonomer Kampfsysteme geben, aber ich sehe da vor allem das Problem der Freund-Feind-Erkennung. Wie verhält sich etwa der Roboter gegenüber echten Zivilisten und Kombattanten in Zivil? Zudem werden solche Roboter die Menschen noch mehr verängstigen.

Werden intelligente Roboter irgendwann einmal die Menschheit bedrohen?

Dass sich Roboter zusammenrotten, um uns Menschen zu eliminieren, halte ich für surreal. Dass Maschinen zu Rassisten werden können, ist allerdings schon Realität.

© ZEIT Online (Zur Original-Version des Artikels)

nach oben

Hol dir per WhatsApp nützliche Karriere-Tipps und Informationen für IT-Begeisterte direkt auf dein Handy. 

Verwandte Artikel

Hol dir Karriere-Infos,

Jobs und Events

regelmäßig in dein Postfach

Kommentare (0)

Zum Kommentieren bitte einloggen.

Das könnte dich auch interessieren