在无法避免的事故中,该先救谁?人类要为无人驾驶车设计道德准则
科普小知识2022-07-31 10:51:28
...
本报北京10月29日电(记者张)英国《自然》杂志近日在网上公布了一项人工智能研究:麻省理工学院(MIT)公布了一项关于无人驾驶汽车在不可避免的事故中应该如何选择哪一方的全球道德偏好调查。这项研究的结果综合了全球参与者做出的4000万个决定,为制定公认的人工智能伦理标准提供了重要参考。
无人驾驶汽车不仅应该能够导航路线,还应该能够在不可避免的事故中处理道德困境。因此,有必要制定一套道德准则来指导人工智能系统处理这种情况。如果大量无人驾驶汽车投入使用,首先必须确定社会普遍接受的道德标准。
麻省理工学院的研究团队建立了一个名为“道德机器”的大型在线调查平台,来统计全球公民的道德偏好。该实验将参与者置于一个不可避免的事故场景中,当时一辆无人驾驶汽车正行驶在一条双车道道路上。每一个场景都给行人和乘客带来不同的危险,而汽车可以选择不改变车道或者急转弯到另一个车道。参与者必须选择谁来保存并决定汽车的路线。实验记录了大约4000万个这样的决定。
研究人员已经确定了许多共同的道德偏好,比如拯救大多数人而不是少数人,拯救年轻人而不是老年人,以及拯救动物。同时,不同文化之间的道德偏好也存在差异。例如,来自中美洲和南美洲国家、法国、前法国海外领土和当前法国领土的参与者都强烈倾向于首先拯救妇女和强大的个人。来自收入差距较大国家的参与者在决定储蓄对象时,通常会考虑他们的社会地位。
科学家们最后指出,在让汽车*做出道德选择之前,有必要进行一次全球对话,向那些监督我们偏好的道德算法设计公司和政策制定者提供信息。
上一篇:高分十一号卫星成功发射