自动驾驶汽车如何进行“道德选择”?如何取舍谁在事故中受伤?

  


  无人驾驶汽车终于可以按照自己的道德观来选择发生事故时的碰撞对象了。

  根据最近苏格兰独立律师团体“维权学院”发布的一份报告显示,想要判断涉及自动驾驶汽车的事故是由何种行为引起,几乎是不可能的。这是因为虽然目前的自动驾驶技术是基于一套算法、规则和流程指定,但开发制造商同时正在寻求开发一种能够自主决策的“神经网络”。

  为了应对共同协商,由苏格兰法律委员会(SLC)、英格兰和威尔士的法律委员会正在准备针对未来无人驾驶车辆汽车制定相关的法律。该机构表示:“这是一个具有功能行的系统(神经网络),系统内部的推理判断过程往往是不透明和和令人无法理解的(这种现象被称为“黑盒”现象),就连开发它的程序员可能都无法解释自己如何实现不同选择结果的原因。”

  


  另外一个特别的症结就是自动驾驶汽车的道德问题,当碰撞不可避免的时候,通常就会出现这样的问题:自动驾驶汽车应该尽量避免与谁相撞。这些例子包括,为了避开孩子撞击老人,或者选择某些具有高技能人士而不会被裁定为犯罪等。

  报告表示:“人们通常有权期待自动驾驶汽车不会与自己相撞并造成伤害。但现实的情况要比想象微妙得多。”

  甚至还有人建议人们可以自己选择驾驶汽车的道德偏好,就像买车的时候选择车身颜色和内饰风格等。

  英国政府表示,完全无人驾驶汽车将在两年内上路,这意味着这类问题的答案显得至关重要。SLC委员卡罗琳·德拉蒙德(Caroline Drummond)表示,在昨天结束的协商中,到了很多不同的回应。

  “无人驾驶汽车的出现带来了很多方面的问题,比如我们在这里可以相当自由的行走,但在部分其他国家是不允许的,而这种情况肯定不能用于自动驾驶汽车的系统算法。从工程学和社会学的角度来看,在这方面的确有很多领域需要进一步探索。”她说。

  


  关于这个问题,其实之前也有科学家进行了技术角度的探讨。国外的科学家们开发出了一种关于道德选择的数字模型,而这种模型未来将会被使用到机器人身上。科学家们表示,未来自动驾驶汽车很快就会像人类一样在生死关头最初最正确的选择。

  研究人员表示,到目前为止,人们一直认为道德决策高度依赖周围的环境,因此不同通过算法来模拟或者描述。“但是我们发现事实恰恰相反,在困境中,人类的行为可以通过一种非常简单的、基于生命的模型来模拟,这种模型的参与者包括了每个人、动物和没有生命体的目标。”德国奥斯巴鲁克大学Leon Sutfeld教授表示。

  “这意味着人类的道德行为可以被机器通过算法准确的描述出来。”研究人员要求测试参与者在一个有雾的天气中驾驶一辆汽车,并且在周围没有动物、行人和障碍物的情况下,如果遇到不可避免的两难局面,必须要决定如何逃脱。

  而结果来看是由概念化的统计模型得出的结论,并且有相关程序来解释观察到的所有行为。研究人员发现,在不可避免会发生交通事故和碰撞的时候,道德决策可以很好的为每个人、动物、或者无生命特征的目标建立一个单一的生命值,并且做出最科学的结实。研究人员表示,这项研究对自动驾驶汽车和其它机器人的行为能够产生重大的影响,当然是在事故不可避免发生的前提下。长沙外阴白斑专科医院:http://www.cfyywgk.com/

  “现在看来,机器可以被变成,让人类做出到的决定,这是至关重要的,社会也会参与到这场严肃而紧张的辩论中。”Gordon Pipa表示。“我们需要问的是,自动驾驶系统是否应该采取道德判断标准,如果是的话,应该模仿人类的决策、道德行为以及是否应该遵循某些道德理论。如果有的话,哪些是正确、哪些又是错误的?”

  研究人员表示,自动驾驶汽车知识刚刚开始,在医院和其它人工智能系统中的机器人,同样也是存在这个问题。

  研究团队强调,我们现在正处于一个新时代的开始,因此需要明确的规则,否则机器将会在没有我们的情况下做决定。

  


  另外,麻省理工学院的研究人员已也考虑过了这个问题,并且开发出了一个名为“道德机器”的算法。简单的说,这个算法与我们之前听到过著名的“电车难题”有些类似,如果你不明白的话,先来看看什么是“电车难题”。

  一个疯子把五个无辜的人绑在电车轨道上。一辆失控的电车朝他们驶来,并且片刻后就要碾压到他们。幸运的是,你可以拉一个拉杆,让电车开到另一条轨道上。然而问题在于,那个疯子在另一个电车轨道上也绑了一个人。

  而现在我们会面临两个选择,什么也不做,让电车撞死轨道上的五个人,或者搬动拉杆,选择撞死另外一个人而救下来之前五个人的命。

  上面就是所谓的“电车难题”了,虽然这是一个很好理解的问题,但是想要给出答案却充满了伦理争论。而麻省理工的“到的机器”也就是关于自动驾驶汽车如何处理交通事故必然发生时究竟应该如何选择的问题,虽然遇到这样的情况概率很小,但是其实也没有特别标准的答案。

  比如在麻省理工的这个场景中,人的生命是否比动物的更重要?或者在逃跑的罪犯和无辜的路人之间,甚至是车内的乘客如何选择?老年人的生命价值是否低于年轻人?应该优先挽救女性的生命而不是男性?其实这样的问题没有一个正确的答案,但是麻省理工的算法就是希望能够在这些极小概率发生的事件中能够选择一个相对符合大众伦理的标准。

  虽然无人驾驶汽车的最终目标是彻底终结交通事故的发生,但是在发展过程中一定会遇到发生事故的问题。虽然麻省理工的这个算法可以用自己的标准来选择“撞死”谁“挽救”谁,但是作为伦理难题,其实真的没有一个标准的答案,而这也是一个科技解决不了的难题。


猜你喜欢

转载自blog.51cto.com/14148153/2357196