·在危险情况下,必须始终优先考虑拯救人的生命,而不是防止财产损失。
·如果发生事故不可避免,在决定如何行动时,不允许考虑一个人任何的生理特征(年龄、性别等)。
·必须始终弄清楚,目前是人类还是计算机负责驾驶。
·汽车必须记录下任何时间在驾驶汽车的对象。
其中一些指导原则与道德机器实验中所得出的数据相悖:例如,禁止任何基于个人特征的歧视的规定与道德机器所揭示的拯救年轻人的国际偏好形成鲜明对比。试想一下,如果一辆无人驾驶汽车遵循德国的指导方针,不对事故对象做区分,结果导致一名儿童而不是一名老年晚期癌症患者被撞死,那会引起多大的公愤。我举的例子很极端,在此深表歉意,但你应该能明白我的意思。
虽然道德机器实验挺有意思,但我认为它本身和它所涉及的电车难题都无法给我们太多有关无人驾驶汽车人工智能软件的启示。我不相信未来几十年内我们的无人驾驶汽车会遇见这种道德困境。那么,当遇上电车难题的时候,一辆真正的无人驾驶汽车在实际操作中会怎么做呢?那些致力于研究无人驾驶汽车技术的人对细节也不太清楚,但以我过去几十年在人工智能领域积累的经验来看,最基本的工程原理是最大限度提高预期安全性(换言之,就是最小化预期风险)。这不涉及深层次道德推断的问题——如果真的需要推断,也可能不会比你面对多个障碍物时避开较大的那些需要做的推断更复杂。坦率地说,即使是这种层面的推断也并不是一定会发生的。事实上最有可能的结果是汽车会紧急刹车。也许,在实践中,在同样的情况下,我们也应该尽全力去做到这一点。