责任
有这样的假设:一名孕妇乘坐着一辆自动驾驶汽车,与此同时,一个 14 岁的女孩正骑着自行车走在相反的车道上。此时,一辆载有两名乘客的货车突然驶出,冲向孕妇乘坐的汽车,这辆自动驾驶汽车必须做出选择:一头撞向货车,孕妇可能流产,货车里的两名男子会受点轻伤,或者转向骑单车女孩的车道,结果可能要了她的命。它会如何决定?
去年在得克萨斯州奥斯汀举行的 SXSW 大会上, Bill Ford 大声说出了很多汽车行业人士正在思考的问题,或者更确切地说,是这帮人所不愿意承认的担忧。这位福特的 CEO 谈论的是无人驾驶汽车的出现,这个话题正是当下最受关注的领域,因为没有一家汽车制造商想在在这场备战中落后于人,硅谷的一些最大的参与者也已经把数十亿美元都投入到「裸」机器人汽车上[没有方向盘或刹车的所谓的 5 级自动驾驶车辆,或自动驾驶车队(AV)]。
Ford 说,随着技术迅速发展,制造汽车将变成最容易的部分。但更艰巨的任务将是决定如何进行编程,让无人车做出某些道德人伦的决定。「(在即将发生事故的情况下)如果车辆必须选择要撞谁,是保乘客还是 10 位行人呢?这些都是你和我作为司机没有时间考虑的决定,我们只能下意识地作出反应。但是这些无人车是有处理能力来进行选择的。如果结果是它选择让你,车上的乘客被撞的话,你是不是还打算坐进那辆车呢?」
尽管 Ford 公开抛出这个问题令汽车业感到心神不定,但这与美国汽车买家普遍存在的想法其实是一致的。在今年早些时候进行的一项调查中,AAA 发现四分之三的驾驶者表示自己对坐在无人车上感到担心,54% 的受访者表示他们觉得与 AV 共享车道不太安全。而一旦 Ford 把这个问题爆了出来,AV 界的其他一些人就开始把它扯到一个到合乎逻辑的结论上。
英特尔公司高级副总裁兼无人车技术公司 的联合创始人 表示:「如果我们必须教一辆车应该杀死一位修女还是一位童子军的话,那就不会有无人车这个行当了。」今年 3 月份,英特尔刚刚以 153 亿美元的价格收购了这家辅助安全驾驶公司。
但是 认为,为了解决这个问题,我们需要把他框定到更实际的范围内,要有别于复杂到难以复加的哲学或伦理难题。他说,简单来说,自动驾驶汽车是否能获得消费者的广泛接受这个问题可归结为这样一个重要问题:自动驾驶汽车每年导致多少起以下的死亡数才是公众可以接受的?
目前情况下,这个问题的答案可能是 0。每一次自动驾驶车辆发生事故,无论是去年在佛罗里达州发生的一辆卡车撞上自动驾驶的 的那起致命车祸,还是那辆崭新的自动驾驶通勤车刚刚亮相 2 个小时就被一辆送货的面包车撞到,一旦发生都立即成为了引爆全国的头条新闻,对事故的讨论往往持续数月之久。
相比之下,20 辆汽车的连环相撞事故几乎每天都会发生,甚至在好几个星期之内,即使传统车辆的碰撞事故造成了死亡人数超过了 100 人,其效果也只能是出现在当地新闻上,大家的态度充其量不过是是耸耸肩。
在全球各地的监管机构都恨不得把这种车放行上路以最大限度减少无休止的交通致死事故的情况下,对无人车安全性错位的关注和恐慌被进一步的强化。去年,美国国家公路交通安全管理局()已经批准了将自动驾驶汽车作为「极大减少与人类选择和行为相关的事故数量」的一种手段。
在这种情况下,和 的一群程序员想出了一个创造性的解决方案来克服对 AV 的恐惧。 以覆盖了 600 万起事故的 数据作为部分基础无人驾驶汽车会减少交通事故率,制作出总量接近 40 的场景集合,几乎涵盖了所有车辆事故的变化情况。在此基础上,该公司将依据交通法规和道路条件做出的完美的人类司机判断编撰成了算法规则。 声称,通过把这些规则作为 AV 决策编程的基础,汽车制造商就可以向汽车购买者保证,无人车在事故中永远都不会犯错。
安全系统的核心是一个被称为 (谨慎指令)的概念,这个概念描述了 AV 可用于持续维持其安全区的选项。比方说,下图显示的是一种常见情况,即蓝色汽车试图离开停车场,但因为被建筑物挡住,所以看不到街上是否有另一辆车正在开过来。负责任的人类司机会一点点地挤进道路,慢慢扩大视野,直到他觉得可以放心开上路为止。
但实际上,他永远不会有完全的视野,最后只能根据直觉来做出决定。尽管这位司机也许已经尽力,但令他受到指责的事故仍有发生的可能。而如果驾驶员开车走神的话,比如因为开了导航或者一边打电话一边开往下一站的话,就更有可能发生碰撞了。
相比之下,AV 的 会根据车速限制计算出红色车最高的合理速度,并确定自己可以探头出来多远,让红色车一方面有刹车的机会,同时还能逐渐提高能见度。如果红车的车速高于最高限速,那么如果发生事故就是红车的错。而且,如果红车是无人车的话,它驾驶起来会更加警惕,在预计到在其视线以外可能会有汽车驶出停车场的情况下,也许会往靠近中间的车道行驶。
似乎有望令 Bill Ford对自动驾驶汽车必须做出棘手选择的担忧失去意义,因为在即将发生的事故中有关谁死谁活的伦理困境,已经被一条不带感情、不会动摇的规则所取代。这条规则是:如果碰撞即将发生(而且根据定义无人驾驶汽车会减少交通事故率,这不会是 AV 的错误),自动驾驶汽车将会尽量避免事故,但不会通过造成另一个事故来缓解这起事故。
换句话说,如果没有其他安全选项的话,无人车将会撞上去,即便在此过程中乘客会被撞死。 说:「以任何其他方式来回答这个问题都会使我们陷入滑坡谬误。因为一辆看起来后座似乎没人坐的汽车其实正好坐着一个婴儿,这样如果它为了避免前面的 AV 撞上自己而调转车头的话可能就会撞到婴儿。总会有一些看不到的参数让你事后分析起来会发现 AV 其实做了更糟糕的事。」
基于对成千上万次事故的模拟, 认为,如果每一家汽车制造商都采用它的方程式( 已经对业界开源,可免费使用),美国每年的车辆致死人数可以改善三个数量级——也就是说,从现在每 100 万驾驶小时致死 1 人降到到每 10 亿驾驶小时致死 40 人。(当然,此处的假设是所有的车都是无人车;而致死原因会是设备故障以及糟糕的驾驶条件)。
一些机器人专家已经对 系统的安全性提出了质疑。比如说,杜克大学 and Lab (人类与自治实验室)主任 就告诉 说, 对有可能困扰 AV 的软件漏洞数量过于忽略。
她指出,2016 年的 Ross 汽车保修和召回报告显示,自 2012 年以来,软件问题日益成为召回事件的主角。研究发现无人驾驶汽车会减少交通事故率,在 2005 年至 2012 年间,发生了 32 起独立的与软件有关的召回事件,共涉及约 360 万辆汽车;从 2012 年底到 2015 年 6 月期间,这些数字几乎翻了一番。不过,所有接受 采访的学者和工程师都表扬了 e致力于将 AV 产业推向安全合法解决方案的努力。
到目前为止,汽车业对 算法的反响并不算好,这主要是因为目前在 AV 领域仍有很多争议,从 、Uber、Lyft 到数十家初创公司以及各大汽车制造商都承诺在 2020 年代初造出全自动汽车。
目前情况下,没有人愿意冒失去潜在市场的领导地位的风险,如果过早同意采用的标准到头来成为失败者该怎么办? (还记得 吗?) 汽车技术分析机构 C3 的总裁兼联合创始人 Doug 说:「在应该具备某种安全标准的事情上 是对的,但在无人车的乘客这么多的情况下,除了狂野西部式的做法以外,汽车制造商对技术研发还没有太大的欲望。」
正是因为有这样的态度, 把它定性为汽车业的自杀协议。如果没有就安全标准达成一致,每一家汽车制造商都会根据数以万计的冗余仿真,堆积超出需要的传感器和计算能力,做出带有自己的功能特性,可能存在过度设计的 AV——他们都宣称对自己的车进行了安全检验,哪怕不能绝对肯定地说自己的车辆不会造成事故的情况下也这么说。其结果是,在发生致命事故后,汽车制造商的法律风险可能会非常高,再加上用昂贵的零部件装点的汽车高昂的生产成本,这都会导致许多购买者只能对 AV 望而却步。与此同时,一些汽车制造商可能会选择牺牲安全关切来降低车辆价格,令消费者无法弄清楚如何才能选到一辆安全的自动驾驶汽车,同时还会加剧大家对AV是危险的看法。
在无人车开发商的压力下,美国联邦政府似乎已经同意采取不干涉主义的立场。美国众议院通过准备递交参议院的一项法案将会取代各州对无人车道路测试的临时规定,该法案将授权 对 AV 车辆的设计,建造以及性能进行监管,而各州只处理车辆注册和许可证的问题。也许最重要的是,该法案将允许 授予无人车制造商每年(也可能是 3 年)可将高达 10 万辆不符合现行联邦机动车安全标准的车辆放行上路的豁免权。
在即将出台的法律规制如此宽松的情况下, 要想说服无人车行业以一致的方式来处理安全和事故责任问题似乎还有很艰巨的工作要做。这意味着我们也许会不情愿地更早发现一个答案,那就是通过对无人车的决策进行编程来扮演上帝角色的开发者究竟是不是跟他们相信自己可以做出来的机器一样绝对可靠。
免责声明:本文系转载,版权归原作者所有;旨在传递信息,不代表本站的观点和立场和对其真实性负责。如需转载,请联系原作者。如果来源标注有误或侵犯了您的合法权益或者其他问题不想在本站发布,来信即删。
标签: