Zurück zur Übersicht

Sparx: Staffel 2, Episode 6

Brennpunkt Maschinenethik: Können Roboter moralisch handeln?

Catrin Misselhorn, Philosophie-Professorin an der Uni Göttingen, erzählt, warum Maschinen durchaus moralische Entscheidungen fällen können. Und welche Grenzen wir ihnen trotzdem setzen sollten.

Automatisierte Systeme durchdringen immer mehr Bereiche unseres Alltags, denn, wie Catrin Misselhorn, Philosophie-Professorin an der Uni Göttingen, erklärt, ist es «ein alter Menschheitstraum, dass Maschinen diejenigen Tätigkeiten übernehmen, die schmutzig, gefährlich oder schlicht unangenehm sind». Je komplexer jedoch die Aufgaben, welche diese Maschinen erledigen, desto schwieriger auch die moralischen Fragen, die sich dabei stellen.

Etwa bei einem Pflegeroboter, der Essen und Medikamente verteilt: Sollte dieser die Nutzerin oder den Nutzer die ganze Zeit überwachen? Oder bei einem autonomen Fahrzeug: Wenn die Bremsen versagen und es nur die Optionen hat, entweder eine Gruppe älterer Personen oder eine junge Frau mit Kindern anzufahren – wofür soll es sich entscheiden?

All dem geht aber noch eine grundsätzliche Frage voraus: Können Maschinen überhaupt moralisch handeln? Ja, sagt Misselhorn, zumindest in funktionaler Form. Was das bedeutet und welche Entscheidungen wir Maschinen trotz allem nicht überlassen sollten, erklärt die Professorin in ihrem «Sparx»-Talk.

CATRIN MISSELHORN

Wenn es um philosophische Fragen im Bereich der künstlichen Intelligenz oder um Roboter- und Maschinenethik geht, ist sie die richtige Ansprechperson: Prof. Dr. Catrin Misselhorn (*1970) ist seit 2019 Professorin für Philosophie an der Georg-August Universität Göttingen, davor war sie sieben Jahre lang Inhaberin des Lehrstuhls für Wissenschaftstheorie und Technikphilosophie an der Universität Stuttgart. Ihre beiden Bücher «Grundfragen der Maschinenethik» (4. Auflage 2020) und «Künstliche Intelligenz und Empathie. Vom Leben mit Emotionserkennung, Sexrobotern & Co» (2021) sind Reclam-Bestseller.

Download

WHITEPAPER "Über die Bedeutung und den Einsatz artifizieller Empathie"

Deine Ansprechperson