Das sogenannte “Trolley”-Problem ist ein, unter PhilosphInnen, immer wieder stark diskutiertes moralisches Gedankenexperiment. Kurz zusammengefasst:

“Eine Straßenbahn ist außer Kontrolle geraten und droht, fünf Personen zu überrollen. Durch Umstellen einer Weiche kann die Straßenbahn auf ein anderes Gleis umgeleitet werden. Unglücklicherweise befindet sich dort eine weitere Person. Darf (durch Umlegen der Weiche) der Tod einer Person in Kauf genommen werden, um das Leben von fünf Personen zu retten?” (nach Foot 1967)

etwas komplexer auch hier:

 

Entscheidungen, die Menschen vor moralische Dilemmata stellen, werden in Zukunft auch Maschinen treffen müssen. Ein autonomes, also selbstfahrendes, Auto wird in Sekundenbruchteilen eine Weg für so eine Situation wählen müssen. Zum jetzigen Zeitpunkt werden hinter den verschlossenen Entwicklertüren privatwirtschaftlicher Unternehmen genau diese Entscheidungen programmiert. Doch wird die künstliche Intelligenz in 20 Jahren tatsächlich besser sein als die Menschliche? Kann Ethik programmiert werden?

Sechs Digitalisierungsmythen hat Jürgen Geuther in seinem Gastbeitrag “Nein, Ethik kann man nicht programmieren” für zeit.de zusammengetragen. Eine unbedingte Leseempfehlung.

 

unsplash-logo Chen Hu