0
本文作者: 张驰 | 2017-08-28 03:46 |
雷锋网消息,德国政府最近一劳永逸地回答了一个汽车道德问题:无人驾驶汽车应该优先考虑保护人类生命,即使会因此伤害动物和导致财产损失。
周三,德国的联邦交通运输和数字基础设施部门表示,它将实施一个由专家小组制定的指引,仔细研究无人驾驶技术。早在6月份,该部门的道德委员会就对今后计算机控制的车辆如何编程和设计,提出了一份报告。14名科学家和法律专家提出了约20条无人驾驶应遵循的规则。现在,德国运输监管机构则承诺,要以某种方式强制执行。
先来看看有哪些规则:
保护人类生命始终是首要任务。如果道路情况恶化,并且很可能发生事故,车辆必须拯救人类以免于死亡或受伤,即使这意味着破坏财产或伤害其他生物。
如果发生意外是不可避免的,无人驾驶车不能选择去救谁,例如,不能牺牲老人救孩子。不应该就年龄,性别,种族,残疾等做出决定,所有人类生命都是平等的。
应该安装有一个监视系统,比如黑盒子,以记录导致事故发生的过程,这样可知道当时是谁正在驾驶,谁应该负责:方向盘后面的人,还是计算机。司机的身份也应该记录在案。完全有可能做到精确地按责任定罪可,这也是必要的。
司机应能完全掌握车辆收集的个人信息,这将阻止科技巨头用定位等数据来定制广告。
最终,如果无人驾驶车辆发生意外,司机仍然可能承担责任,除非完全是由系统故障引起的。
毫无疑问,在无人驾驶等系统普及的时候,人与机器之间的相互作用会产生新的道德问题。制定一些指导方针十分必要。今年早些时候,德国通过了一项法律,要求所有无人驾驶车辆的方向盘后都必须有人,以便能够在意外将发生时接管控制。
德国这种做法给了“在将发生不可避免的事故时,汽车应该如何处理”这样的问题一个解决方法,而且还具有法律约束力。除了责任分配,这一指引还规定了诸如数据保护(无人驾驶汽车会生成和存储大量数据,包括人驾驶员的驾驶行为)和保险理赔这样的问题。
但现实从来不是非黑即白,如果情况变成,即将有意外发生,在撞向行人和避开后会导致车上乘车受到伤害,这两种情况该如何选择呢?这个问题和著名悖论之一“电车难题”一脉相承。
雷锋网曾报道,MIT还上线一个名为“道德机器”的网站,网站的功能很简单,就是以问卷的形式面向大众收集情境选择的数据。例如,面对不可避免的事故,选择撞向人还是动物?选择罪犯还是普通人?选择几位小孩还是多位成年人?这些数以万计的选择,将通过后台被MIT的研究团队采集,为未来机器智能平台(如自动驾驶汽车)面临的伦理问题提供参考。
即使是伤害人类或伤害动物这种的选择,指引中规定的也与实际情况相差甚远。比如很多司机在面临前方突然出现的动物时,往往会选择急刹或变向,而这种突然的操作很可能给自己带来危险。
让无人驾驶汽车做出选择,前提是它知道各个选择的后果,但又如何确保它就一定知道呢?
真正的困境往往取决于实际情况,会受不可预测的行为的影响,也很难被明确地标准化,也不能被编程,无法做到伦理上是不容置疑的。
雷锋网曾报道,Google X实验室曾在公开采访中回应过这个问题,当时负责自动驾驶项目的首席工程师Andrew Chatham表示,“至少目前Google的所有路测活动中,还没有遇到一个场景让我们选择是拯救一个老人还是婴儿,但如果这一刻真的到来,那通常只是意味着几秒前你已经犯下一个更大的错误。”
所以,他们的目标是通过优化汽车的刹车决策时间,最大限度阻止这种情境的发生。
没有任何技术是完美的,事故和讨论还将继续发生。对待可能发生的问题,我们要保持开放和对话。因为无人驾驶是一件重要的造福大众的事业,只有在确定可能存在的问题之后才能为之确定可能的解决方案。
雷峰网原创文章,未经授权禁止转载。详情见转载须知。