Schloss Dagstuhl: Können Computer moralische Prinzipien berücksichtigen?
Künstliche Intelligenz ist von zunehmender Bedeutung in unserer Gesellschaft. Google und andere Unternehmen entwickeln autonome, selbstgesteuerte Fahrzeuge, das Militär verwendet in zunehmendem Maße unbemannte Drohnen, die mitunter autonome Entscheidungen treffen. Und auf längere Sicht werden autonome Roboter immer mehr Bereiche unseres täglichen Lebens einnehmen, von der industriellen Produktion über die Medizin bis hin zur häuslichen Altenpflege.
Vom 30.5. bis 3.6.2016 treffen sich führende Informatiker mit Wissenschaftlern unterschiedlicher Disziplinen auf Schloss Dagstuhl, Leibniz-Zentrum für Informatik, um zu diskutieren, wie man solchen Maschinen menschliche Moral beibringen kann.
Zwangsläufig werden autonome Systeme mit schwierigen Entscheidungen konfrontiert. Das selbstgesteuerte Auto erkennt beispielsweise, dass plötzlich ein Kind auf die Straße läuft, aber ein Ausweichmanöver birgt das Risiko eines Frontalzusammenstoßes mit einem anderen Fahrzeug. Die Drohne erkennt das offiziell vorgegebene Ziel, steht aber vor dem Risiko, Kollateralschäden zu verursachen. Ein häuslicher Pflegeroboter muss in einem medizinischen Notfall schnell reagieren. In all solchen Fällen muss das autonome System die Frage beantworten: was ist die richtige Entscheidung? Anders ausgedrückt: nicht nur Menschen können vor moralische Entscheidungen gestellt werden, sondern auch Maschinen, die über künstliche Intelligenz verfügen. Wie bringt man solchen Maschinen die Moral bei?
Mit dieser Frage beschäftigt sich diese Woche ein internationales interdisziplinäres Seminar auf Schloss Dagstuhl. Die Teilnehmerinnen und Teilnehmer sind Wissenschaftler aus unterschiedlichen Ländern und kommen aus verschiedensten Fachbereichen: von der Informatik und der Mathematik über die Philosophie und Gesellschaftswissenschaften bis hin zu Wirtschafts- und Rechtswissenschaften. In mehreren Arbeitsgruppen erarbeiten die Teilnehmer die Fragestellung: "Wie macht man Maschinen moralisch?" und "wie überträgt man menschliche Kriterien der Moral auf künstliche Intelligenz?"
Um diese Fragen zufriedenstellend zu beantworten, bedarf es systematischer Grundlagenforschung. Auf der einen Seite müssen wir zunächst allgemeingültige moralische Kriterien entwickeln. Was ist in kritischen Fällen überhaupt die moralisch richtige Entscheidung? Auf der anderen Seite müssen wir die Frage stellen, ob solche Kriterien in Form von Computeralgorithmen umsetzbar sind, und – wenn ja – wie man Computern effektiv diese Kriterien "beibringen" kann. Soll man zum Beispiel moralische Kriterien explizit programmieren oder eher flexibel lernende künstliche Intelligenz schaffen, die dann – ähnlich wie kleine Kinder – durch Beobachtung und durch "Feedback" moralisches Verhalten erlernen?
Zu dieser Thematik gibt es noch viel wissenschaftliches und praktisches Neuland zu erschließen. Ziel des einwöchigen Dagstuhl-Seminars ist es, durch interdisziplinäre Kooperation Fortschritte zu machen.
Die Organisation des Dagstuhl-Seminars haben übernommen:
- Michael Fisher (University of Liverpool, GB)
- Christian List (London School of Economics, GB)
- Alan FT Winfield (University oft he West of England – Bristol, GB)
Hintergrund:
Schloss Dagstuhl lädt das ganze Jahr über Wissenschaftler aus aller Welt ins nördliche Saarland ein um über neueste Forschungsergebnisse in der Informatik zu diskutieren. Mehr als 3.500 Informatiker von Hochschulen, Forschungseinrichtungen und aus der Industrie nehmen jährlich an den wissenschaftlichen Veranstaltungen in Dagstuhl teil. Seit 2005 gehört Schloss Dagstuhl zur Leibniz-Gemeinschaft, in der zur Zeit 88 führende außeruniversitäre Forschungsinstitute und wissenschaftliche Infrastruktureinrichtungen in Deutschland vertreten sind. Aufgrund ihrer gesamtstaatlichen Bedeutung fördern Bund und Länder die Institute der Leibniz-Gemeinschaft gemeinsam.
Bei Abdruck Belegexemplar erbeten. Vielen Dank!
Weitere Informationen:
http://www.dagstuhl.de - Einstiegsseite Schloss Dagstuhl
http://www.dagstuhl.de/16222 - Informationen zu dem Dagstuhl-Seminar "Engineering Moral Agents – from Human Morality to Artifical Morality"