言情小说网 > 科幻小说 > 我还能在规则怪谈里塌房不成? > 第276章 道德困境(1/4)
    【深夜,你行驶在环海公路上,你发现你的刹车突然失灵,而前面路中央站着一个老人。

    此时,你是选择——

    a直接撞过去

    b撞上临海一侧的栏杆】

    时厘放慢了答题速度,重新阅读了题干。

    深夜、刹车失灵,出现在环海公路上的老人。

    几项要素结合下来,很可能是诡异。

    而撞向临海一侧栏杆,也可能是诡异的障眼法,万一旁边没有栏杆,或者栏杆不稳固。

    这个选择会导致她连人带车坠海。

    就算,以上的可能没有发生。

    车子在撞击栏杆后停了下来,在这样荒芜偏僻的公路上,也只会被诡异瓮中捉鳖。

    但是,万一这个老人是人类,因为某些原因被坏人或者家人抛弃在公路上呢。

    撞过去,老人可能会死。

    不撞过去,自己可能会死。

    如此简洁的题干。

    难保不会像许多海龟汤那样太过主观,答完题后没有其他的后招等着她们。

    “道德机器困境。”

    方寰宇盯着屏幕上的题目说道。

    这是由“电车难题”催生出的现实新讨论。

    随着科技和机器智能的不断发展,也从引发了许多关于道德算法和编程的问题。

    一辆无人驾驶汽车,在一条双车道上行驶时,如果刹车失灵且事故不可避免,那么它必须做出选择:是不变道撞死路上的五名行人,还是选择变道,但牺牲车内的两名乘客。

    四千万人参与进这项道德决策,在这些测试题里,衍生出了许多不同的情景和对象。

    司机,行人。

    老人、小孩、孕妇、动物。

    遵守交通规则的人,违反交通规则的人。

    数量不同,年龄职业不同,高矮胖瘦不一。

    ……

    大多数人做出的选择,是救多不救少、救年纪小的不救年纪大、救人不救动物。

    这也导致了“自动驾驶悖论”的出现。

    如果一辆自动驾驶汽车在双车道上遇到违规的行人,为了舍己救人就会导致撞车,自身收到损害,这样的