Über die Moral der Maschinen

Ein vierteiliges Interview mit dem Maschinenethiker und Wirtschaftsinformatiker Oliver Bendel ist am 31. Mai 2016 in Telepolis erschienen. Es geht um autonome Autos, um neuartige Chatbots wie den GOODBOT und um tierfreundliche Saugroboter wie LADYBIRD. Es geht um die Forschung in der Schweiz und in den USA und das Zusammenleben mit den Maschinen. Zum Verkehr der Zukunft sagt Bendel: “Was also tun? Ich rate hartnäckig dazu, bestimmte Maschinen in offenen Welten nicht auf uns loszulassen. Es sind vermutlich tragfähige Kompromisse möglich. Man kann autonome Autos in den Städten verbieten und zwischen den Städten fahren lassen, auf bestimmten Spuren, wobei der Spurwechsel meist gut beherrscht wird, zu bestimmten Uhrzeiten, mit bestimmten Geschwindigkeiten. Eventuell auch im Entenmarsch, ein Auto fährt voran, die anderen bilden eine Kette wie die Küken hinter der Mutter. Projekte dieser Art hat es gegeben. Bei einer solchen Entflechtung des Verkehrs sind diejenigen beruhigt, die dem autonomen Auto misstrauen, und es werden kaum Unfälle mit konventionellen Fahrzeugen auftreten.” (Telepolis, 31. Mai 2016) Der Beitrag mit dem Titel “Über die Moral der Maschinen und eine programmierte Ethik” kann über http://www.heise.de/tp/artikel/48/48387/1.html abgerufen werden.

Quelle: maschinenethik.net

Autonomes Fahren im Bayerischen Fernsehen

Das Bayerische Fernsehen (BR Fernsehen) hat Oliver Bendel im Mai 2016 ins Verkehrszentrum des Deutschen Museums nach München eingeladen und dort ein Gespräch mit ihm geführt. “Mit über 4500 Exponaten zählen die Sammlungen des Landverkehrs zu den größten, wertvollsten und ältesten Sammlungen des Deutschen Museums.” (Website Verkehrszentrum) Es ging um autonome Autos und den Verkehr der Zukunft. Der Philosoph und Wirtschaftsinformatiker sprach sich dafür aus, die Autobahnen dafür vorzusehen und die Städte weitgehend zu verschonen. Im Museum war ein Prototyp von Daimler ausgestellt, bei dem das autonome Fahren bereits Mitte der 90er-Jahre mit Hilfe von Fernsehkameras realisiert wurde. Im Ankündigungstext wird unter dem Titel “Auch eine Frage der Moral” der Inhalt des Films skizziert und auf Dilemmata eingegangen: “Es gibt viele offene Fragen: Wie verhält sich ein autonomes Fahrzeug in einer Gefahrensituation? Was macht das Auto, wenn plötzlich ein kleines Mädchen vor ihm auf die Straße läuft? Was, wenn der Fahrer das Kind nur verschonen kann, indem er ausweicht, aber dadurch zum Beispiel einen Senioren gefährdet? Ist ein junges Leben mehr wert als ein älteres?” (Website BR) Das Gespräch mit Oliver Bendel führte Patrick Lerch, ausgestrahlt wird der Beitrag – ursprünglich eingeplant für den 1. Juni 2016 – am 8. Juni 2016. Weitere Informationen über www.br.de/br-fernsehen/sendungen/kontrovers/autonomes-fahren-selbstfahrende-autos-ethik-100.html.

Quelle: maschinenethik.net

Roboterethik im Deutschlandfunk

Am Donnerstag, 26. Mai 2016, ist der Wirtschaftsinformatiker, Informationsethiker und Maschinenethiker Oliver Bendel im Gespräch mit Inge Breuer. Das Schwerpunktthema im Deutschlandfunk lautet “Roboterethik: Wieviel Moral brauchen intelligente Maschinen?” Aus der Ankündigung des Senders: “Bereits heute übernehmen Roboter eine Vielzahl von Aufgaben in der Industrie, im Finanzsektor, aber zunehmend auch bei Serviceleistungen, in der Pflege und im Verkehr. Diese schlauen Maschinen werden zunehmend autonomer und können auch komplexe Entscheidungen selbst treffen. Je autonomer solche intelligenten Systeme aber handeln, desto mehr stellt sich die Grundfrage nach der moralischen Fundierung der von diesen Maschinen getroffenen Entscheidungen. Wie vermag die ‘Moral der Maschine’ sichergestellt, wie weit kann sie ihr von Beginn an ‘einprogrammiert’ werden? Z.B. bei einem selbstfahrenden Auto: Soll es einem Unfall ausweichen, wenn es erkennt, dass dann stattdessen ein anderer den Unfall haben wird? Sind die eigenen Insassen – und damit Kunden des Herstellers – schutzwürdiger als Dritte? Wer trägt die Verantwortung für die Entscheidungen der Maschine? Zunehmend wird auch in Deutschland die Frage gestellt, ob man (teil-)autonomen Systemen so etwas wie Moral beibringen kann.” Die Rubrik “Aus Kultur- und Sozialwissenschaften” wird ab 20.10 Uhr ausgestrahlt.

 

Quelle: maschinenethik.net

Chancen und Risiken von Smart Cams

Am 23. und 24. Juni 2016 findet in Berlin der Workshop “Chancen und Risiken von Smart Cams im öffentlichen Raum” statt. Es handelt sich um eine gemeinsame Veranstaltung des vom BMBF geförderten Forschungsprojekts ChaRiSma an der Carl von Ossietzky Universität Oldenburg und des Datenschutz-Beirats der Deutschen Bahn. Nach der Begrüßung durch Prof. Dr. Jürgen Taeger (Universität Oldenburg) und Prof. Dr. Herta Däubler-Gmelin (Bundesministerin der Justiz a.D.) werden Referate aus technischer und rechtlicher Perspektive gehalten u.a. von Prof. Dr. Helmut Krcmar (TU München), Bernd H. Harder (Mitglied im Hauptvorstand des BITKOM e.V.), Prof. Dr. Herta Däubler-Gmelin und Prof. Dr. Susanne Boll-Westermann (OFFIS Institut für Informatik). Es folgen Statements zum Regulierungsbedarf zum Schutz der Persönlichkeitsrechte u.a. von Dr. Tim Ostermann (MdB, CDU-/CSU-Fraktion), Dennis Rohde (MdB, SPD) und Dr. Konstantin von Notz (MdB, Grüne) sowie Prof. Dr. Dr. Volker Boehme-Neßler (Universität Oldenburg) und Prof. Dr. Oliver Bendel (Hochschule für Wirtschaft FHNW). Dr. Edgar Rose (Universität Oldenburg) berichtet aus Projektsicht. Die Schlussworte stammen von Klaus-Dieter Hommel (stv. Vorsitzender Eisenbahn- und Verkehrsgewerkschaft) und Prof. Dr. Jürgen Taeger. Auf der Website von ChaRiSma wird erklärt: “Zentrales Ziel des Vorhabens ist es, … rechtliche Regelungen zu entwickeln, die den vielfältigen Interessen gerecht werden und zugleich wirksam in die Praxis umzusetzen sind. Sie sollen insbesondere Persönlichkeitsrechte schützen, ohne die Freiheit der technischen Anwendung übermäßig zu beschränken.”

Quelle: informationsethik.net

Blechpolizisten mit Elektroschockern

Im Silicon Valley sind Überwachungsroboter von Knightscope im Einsatz. Oliver Bendel – der Autor des Artikels “Blechpolizisten mit Elektroschockern” – begegnete einem von ihnen im Shopping Center bei der Stanford University, an der er kurz zuvor einen Vortrag über Roboterautos gehalten hatte. Fast wäre er mit ihm zusammengestossen, als er von Tür zu Tür, von Gebäude zu Gebäude unterwegs war. Es war ein milder Frühlingstag im März 2016, und vom ewigen Regen des Vormonats war nichts mehr zu sehen. “Überwachungsroboter dieser Art markieren physische Präsenz. Sie mischen sich unter die Menschen und rollen neben den Tieren.” (inside-it.ch, 19. Mai 2016) Wenn es leer werde auf den Strassen und Wegen, seien ihre Silhouetten und Schatten zu sehen, und in den Räumen und Gebäuden seien sie diejenigen, die das Licht ausmachen. Neben dem K5 und dem kleinen Bruder, dem K3, ist seit kurzem ein weiteres Modell auf dem Markt. In China schaut der AnBot nach dem Rechten, und wenn er einen Verdächtigen entdeckt, kann er den Elektroschocker auf ihn richten. Während er im normalen Betrieb ein autonomer Roboter ist, wird er in einem solchen Fall zum Teleroboter: Die Waffe wird von einem Menschen ferngesteuert und im Ernstfall betätigt. Der Beitrag von Oliver Bendel, in dem auch ethische Aspekte angesprochen werden, ist am 19. Mai 2016 in der Zeitschrift inside-it.ch erschienen und kann über www.inside-it.ch/articles/43886 aufgerufen werden.

The GOODBOT Project

“The GOODBOT project was realized in 2013/14 in the context of machine ethics. First the tutoring person (the author of this contribution) laid out some general considerations. Then a student practice project was tendered within the school. Three future business informatics scientists applied for the practice-related work, developed the prototype over several months in cooperation with the professor, and presented it early in 2014. The successor project LIEBOT started in 2016.” These are the initial words of a new contribution in Germany’s oldest online magazine, Telepolis. The author, Oliver Bendel, presents the GOODBOT project which is a part of his research on machine ethics. “The GOODBOT responds more or less appropriately to morally charged statements, thereby it differs from the majority of chatbots. It recognizes problems as the designers anticipated certain emotive words users might enter. It rates precarious statements or questions and escalates on multiple levels. Provided the chat runs according to standard, it is just a standard chatbot, but under extreme conditions it turns into a simple moral machine.” The article “The GOODBOT Project: A Chatbot as a Moral Machine” was published on May 17, 2016 and can be opened via http://www.heise.de/tp/artikel/48/48260/1.html.

Quelle: maschinenethik.net

Welche Entscheidungen wollen wir Maschinen überlassen?

Das DVR-Forum “Automatisiertes Fahren und Ethik” findet am 14. Juni 2016 in der Berlin-Brandenburgischen Akademie der Wissenschaften statt. Der Untertitel “Welche Entscheidungen wollen wir Maschinen überlassen?” deutet den Schwerpunkt an. In der Beschreibung heißt es: “Schon heute werden wir durch Assistenzfunktionen beim Autofahren unterstützt. Diese helfen, Unfälle zu vermeiden oder deren Folgen zu vermindern Weiterlesen

Von Mensch und Maschine: Roboter in der Pflege

Eine öffentliche Sitzung der österreichischen Bioethikkommission trägt den Titel “Von Mensch und Maschine: Roboter in der Pflege”. Sie findet am 2. Mai 2016 im Bundeskanzleramt in Wien statt. Es tragen nach der Eröffnung von Dr. Christiane Druml (Vorsitzende der Bioethikkommission) vor: Prof. Dr. Oliver Bendel, Fachhochschule Nordwestschweiz, Institut für Wirtschaftsinformatik (“Die Maschine in der Moral”), Prof. Dr. Mark Coeckelbergh, Universität Wien, Institut für Philosophie (“Machine ethics in healthcare”), Prof. Dr. Michael Decker, Karlsruhe Institut für Technologie, Institut für Philosophie (“Einsatz von Robotern in der Pflege – empirische Erfahrungen”), Prof. Dr. Jutta Weber, Universität Paderborn, Institut für Medienwissenschaften (“Maschinelle Versorgung: Die impliziten Werte der sozialen Robotik und ihre gesellschaftlichen Konsequenzen”) und Markus Wohlmannstetter, MSc., Anästhesiologische Intensivstation 1B, Krankenanstalt Rudolfstiftung (“Einsatz von Robotern in der Pflege – aus der Sicht der Pflege”). Das “Wrap-up” verantwortet Prof. Dr. Ina Wagner, Mitglied der Bioethikkommission. Weitere Informationen über den Flyer zur Veranstaltung.

Quelle: maschinenethik.net

IT-Jobs mit Sex-Appeal

Im FNT Kundenmagazin 2 (März 2016) ist ein Beitrag von Alexander Freimark mit dem Titel “IT-Jobs mit Sex-Appeal” erschienen. Darin werden neue Rollen und Berufe wie Data Scientist, Cyber-Security-Experte, Chief Service Officer und Maschinenethiker genannt. “Datenwissenschaftler” entwickeln Modelle, um betrügerische Transaktionen von Kreditkarten, Störungen in Produktionsabläufen oder beleidigende Kommentare in Online-Foren zu erkennen” (FNT Kundenmagazin 2, März 2016). Dr. Angelika Voss verantwortet am Fraunhofer-Institut für Intelligente Analyse- und Informationssysteme IAIS das dazu passende Schulungsprogramm: “In der Regel sind unsere Teilnehmer Mitarbeiter von Unternehmen, die sich in der Datenanalyse auskennen, IT-affin sind – und die darüber hinaus noch verstehen, wie in ihrer Branche Geld verdient wird.” (FNT Kundenmagazin 2, März 2016) Die Sicherheitsexperten für den virtuellen Raum können sich “in die Denkweise der Kriminellen hineinversetzen” und können “Angriffe schon im Vorfeld verhindern” (FNT Kundenmagazin 2, März 2016). Der CSO ist “eine Art Coach der Service-Organisation” (FNT Kundenmagazin 2, März 2016). Zum Jobprofil des Maschinenethikers erläutert Prof. Dr. Oliver Bendel von der Hochschule für Wirtschaft FHNW: “In Zukunft müssen wir mehr nach der Moral von Maschinen fragen, weil immer mehr autonome und teilautonome Systeme Entscheidungen mit moralischen Implikationen treffen.” (FNT Kundenmagazin 2, März 2016) Dabei gehe vor allem auch darum, die Folgen der Entscheidungen abzuwägen. Der Artikel wurde vom Autor freundlicherweise zur Verfügung gestellt und kann hier heruntergeladen werden.

 

Quelle: informationsethik.net

Interview im Deutschlandradio zu Roboterautos

Deutschlandradio Kultur ist am Dienstag, 12. April 2016, im Gespräch mit Oliver Bendel. Der Wirtschaftsinformatiker und Maschinenethiker lebt in Zürich und forscht und publiziert seit Jahren über moralische Maschinen, seien es selbstständig fahrende Autos, Pflege- und Therapieroboter, zivile Drohnen oder Chatbots. Nana Brink ist als Autorin und Moderatorin unterwegs, für taz, SPIEGEL, Focus und Deutschlandradio. Ab 7.40 Uhr wird sie Fragen stellen zu autonomen Autos und deren Möglichkeiten, vor und während der Fahrt etwas zu lernen. Oliver Bendel ist skeptisch gegenüber komplexen moralischen Maschinen, die in offenen Welten verkehren und über Tod und Leben von Menschen entscheiden. Sein Interesse gilt einfachen moralischen Maschinen, ob im Haushalt oder in der Fabrikhalle. Dort sollen Geräte und Roboter besser sein als vorher, auch im moralischen Sinne. Beispiele sind Saugroboter, die Marienkäfer verschonen, und 3D-Drucker, die keine Waffen produzieren. Das Interview wird live geführt. Weitere Informationen gibt es über www.deutschlandradiokultur.de – dort ist zum gegebenen Zeitpunkt auch der Podcast zu finden.

Quelle: maschinenethik.net