第276章 道德困境(1 / 2)

【深夜,你行驶在环海公路上,你发现你的刹车突然失灵,而前面路中央站着一个老人。</p>

此时,你是选择——</p>

A.直接撞过去</p>

B.撞上临海一侧的栏杆】</p>

时厘放慢了答题速度,重新阅读了题干。</p>

深夜、刹车失灵,出现在环海公路上的老人。</p>

几项要素结合下来,很可能是诡异。</p>

而撞向临海一侧栏杆,也可能是诡异的障眼法,万一旁边没有栏杆,或者栏杆不稳固。</p>

这个选择会导致她连人带车坠海。</p>

就算,以上的可能没有发生。</p>

车子在撞击栏杆后停了下来,在这样荒芜偏僻的公路上,也只会被诡异瓮中捉鳖。</p>

但是,万一这个老人是人类,因为某些原因被坏人或者家人抛弃在公路上呢。</p>

撞过去,老人可能会死。</p>

不撞过去,自己可能会死。</p>

如此简洁的题干。</p>

难保不会像许多海龟汤那样太过主观,答完题后没有其他的后招等着她们。</p>

“道德机器困境。”</p>

方寰宇盯着屏幕上的题目说道。</p>

这是由“电车难题”催生出的现实新讨论。</p>

随着科技和机器智能的不断发展,也从引发了许多关于道德算法和编程的问题。</p>

一辆无人驾驶汽车,在一条双车道上行驶时,如果刹车失灵且事故不可避免,那么它必须做出选择:是不变道撞死路上的五名行人,还是选择变道,但牺牲车内的两名乘客。</p>

四千万人参与进这项道德决策,在这些测试题里,衍生出了许多不同的情景和对象。</p>

司机,行人。</p>

老人、小孩、孕妇、动物。</p>

遵守交通规则的人,违反交通规则的人。</p>

数量不同,年龄职业不同,高矮胖瘦不一。</p>

……</p>

大多数人做出的选择,是救多不救少、救年纪小的不救年纪大、救人不救动物。</p>

这也导致了“自动驾驶悖论”的出现。</p>

如果一辆自动驾驶汽车在双车道上遇到违规的行人,为了舍己救人就会导致撞车,自身收到损害,这样的车不会有任何市场。</p>

相反,如果设定为舍人救己,那么这样的车可能无法通过市场准入的道德评估。</p>

即使双方都没有违反交通规则,程序设定为保护车主的汽车,也可能会在某些情况下,因为优先保护机制导致更大的交通伤亡和误判。</p>

这是一个非常现实的问题。</p>

身为车主时,人们更倾向于利己的程序,希望能够优先保护自己和乘客的安全。</p>

然而,当车主成为行人时,他们就变得希望车辆能够利人,保障自身的通行安全。</p>

如果满大街都充斥着利己的自动驾驶汽车时,人们将无法获得足够的安全感。一旦路上的汽车失控,无辜的行人都可能成为牺牲品。</p>

无论哪个选择,都会引发争议。</p>

天选者如果选择“直接撞过去”,评论区难免有人质疑,这样会不会太心狠了。</p>

而天选者如果选择撞向栏杆,又会被另一批人认为不够果断,指责善心大发。</p>

没有十全十美的答案。</p>

每个人的道德观不同,不能说谁对谁错。</p>

灯塔国的洛根,直接选择冲过去。</p>

都进怪谈副本了,还要什么道德。</p>

他身后站着三亿人,谁有他的命值钱?</p>