Wissenschaftsdoku: Das Notfall-Dilemma
Wer trägt Schuld, wenn die Maschine falsch entscheidet?
Terroranschlag, Naturkatastrophe oder überfüllte Notaufnahme: Rettungsmediziner haben manchmal mehr Patienten als Ressourcen. Dann muss schnell entschieden werden, wem zuerst geholfen wird.
In Ausnahmesituationen führt die Rettung eines Menschen manchmal zum Tod eines anderen. Für schwierige Entscheidungen über Leben und Tod gibt es Regeln. Sie sind eine harte Prüfung für unsere Moral. Wie unter einer Lupe geben sie Auskunft über unsere Normen und Werte.

Doch kaum jemand kennt die Regelungen und Gesetze, nach denen Menschen und zunehmend auch Maschinen mit moralischen Dilemmata umgehen sollen. Auch selbstfahrende Autos brauchen moralische Leitplanken. Eine Ethikkommission im Auftrag des Verkehrsministeriums hat entschieden: Gerade im Notfall dürfen die Sensoren der Bordcomputer nicht zwischen Mann oder Frau, Kind oder Greis unterscheiden. Die Zahl der möglichen Opfer kann die Entscheidung des Autos hingegen durchaus beeinflussen. Doch kann man Moral überhaupt programmieren?


Ein Film von Klaus Neumann und Hendrik Löbbert
Die Wissenschaftsdoku zeigt, welche Probleme beim Treffen schwieriger Entscheidungen entstehen und welche Lösungsansätze es gibt - wissenschaftlich, rechtlich und persönlich. Die Zuschauer werden in die spannenden moralischen Gedankenexperimente eingebunden.









Navigation / Sendung
Wissenschaftsdoku
Immer donnerstags um 20.15 Uhr
Wissenschaft am Donnerstag
scobel: Ethik der Algorithmen
Unser Leben wird immer mehr von Computern bestimmt. Nach welchen Regeln handeln die Algorithmen – nach unseren oder nach ihren eigenen?