Selbstfahrende Autos, Roboter und mehr – Ein Moraltest

Eine künstliche Intelligenz in Form eines selbst fahrendem Auto fährt auf einer Straße und kann nicht bremsen oder ausweichen. Es fährt auf eine Kreuzung und muss entweder eine ältere Frau oder ein Kind, einen Dieb oder eine ehrliche Haut überfahren. Wie würdet ihr entscheiden?

Genau diese Frage wird aktuell in der Moralmaschine des MIT abgefragt. Ihr sollt entscheiden, wie die künstliche Intelligenz handeln soll. Ihr könnt eigene Szenarien entwerfen oder Szenarien von anderen Nutzern als Judge entscheiden.

http://moralmachine.mit.edu/

 

Ziel der Moralmaschine ist es in Zukunft künstliche Intelligenzen mit diesen Antworten zu füttern, damit diese in die Lage versetzt werden Entscheidungen zu treffen.

Bedenklich finde ich, dass bei diesen Szenarien und Fragen die Mehrheit of falsch liegt und auch eine in der Statistik bewährte Methode der Häufung einer Antwort eine Näherung des richtigen Ergebnisses ist hier nicht angeführt werden kann. Eine ähnliche Diskussion wird in den letzten Tagen auch in Verbindung mit dem Film “Terror” geführt.