这个问题不解决,自动驾驶汽车永远无法成为主流

描述

自2004年美国国防部高级研究计划局(DARPA)大挑战赛的参赛者中没有一人成功完成比赛以来,自动驾驶汽车已经走过了很长一段路。现在,特斯拉已经在公共道路上进行了多次测试,并向选定的车主发布了一款测试版的全自动驾驶汽车。但在我们让汽车替我们驾驶之前还有一个主要问题需要解决,并不是技术问题,而是一个道德问题。

想象一下,一辆自主汽车在它行驶的道路上发现一个行人,并且行驶速度太快,无法安全停车。它有两个选择,要么它尝试停下来,但可能会撞死行人。或者,它可以避开行人,但很可能会撞到障碍物,导致乘车人受伤或死亡。它会选择哪一个?

这听起来像是一个简单的选择,但是你越仔细想,就会发现更多的细微差别。如果行人是母亲和孩子怎么办?如果车里全是孩子怎么办?如果猛刹车很可能意味着后面的车也发生了事故呢?换句话说,自动驾驶汽车必须计算出对人类生命造成的伤害最小的情况,这意味着它可能会决定伤害甚至杀死乘客来保证造成的伤害最小。

作为人类驾驶员,我们会很自然地做出这些决定。一只狗跑到路上,我们会刹车,试图避开这只狗,但如果无法避免要有一方受到伤害,我们大多数人会选择杀死这只狗,而不是伤害我们自己和车上的人。我们会尽量不伤害狗,但不能以自己的生命为代价。如果是孩子在路上,我们可能会宁愿让自己受伤,以防止或减少对孩子的伤害。但我们仍然不会为了避免伤害孩子而转向迎面开来的车辆。

然而,问题并不仅仅在于受到的伤害最小。如果发生事故,谁负责?如果行人乱穿马路,也许是他们的错,他们比车上的人更应该受伤。但是,如果自动驾驶系统已经决定了要伤害谁、保护谁,那么发生事故时是司机的错?汽车制造商的错》还是编写自动驾驶软件的公司的错?

当特斯拉使用自动转向和自适应巡航控制系统的汽车发生事故时,我们已经看到关于这种问题的一些争论。这种情况并不常见,但当与自动驾驶相关的事故确实发生时,问题就在于司机是否应该做得更多,还是由于系统未能正确发挥作用,认为特斯拉应该承担责任。
即使特斯拉说按照说明使用,自动驾驶汽车不会造成事故,也无法保证这种有争论性的问题不会发生。类似地,大约三年前,优步停止了无人驾驶出租车的试验,因为一辆出租车在评估影响之后撞死了一名行人。

我们也不能想当然地认为,无论在哪里,这些问题的答案都是一样的,因为它们不像物理定律,在世界上任何地方的答案都是统一的。几年前发表在《自然》(Nature)杂志上的一项研究表明,这些涉及伦理的决定并不具有普遍性,它们因文化而异。这项调查使用的是麻省理工学院的“道德机器”(Moral Machine),覆盖了全球230万人,并有一些有趣的发现。例如,与贫困地区相比,富裕国家的人们不太可能对乱穿马路的行人施以援手。现在仍然可以在道德机器的专门网站上看到它提出的场景。

自动驾驶系统的开发人员至少考虑到了道德层面。众所周知,Waymo开发团队聘请了一些人来增加道德方面的考量。然而,在自动驾驶成为主流之前,这个问题必须得到解决。这个问题解决之后将带来巨大的好处,因为大多数研究证实,自动驾驶汽车将比人类司机更安全,因为不会疲劳或被手机分心。

事实上,兰德公司有一个方便的工具,可以根据各种参数计算出多少生命将被挽救。即使假设自动驾驶汽车只比人类驾驶员安全10%,在未来几十年里,随着系统的引入,也会挽救数十万人的生命,而且大多数理论家认为自动驾驶汽车将比这一假设的数据安全得多。

总的来说,我们不能认为自动驾驶汽车的问题纯粹是技术问题。显然,最重要的是能够成功地导航道路布局和标记,能够根据交通速度和天气等条件变化。但一旦他们掌握了这种技能(现在看来非常接近),伦理和道德层面的问题就会凸显出来。无人驾驶汽车也需要具备道德考量,因为在此之前,无人驾驶汽车将备受争议。但这是一个亟须解决的问题,因为随着我们的道路变得越来越拥挤,安全和驾驶效率将是一个重大问题。

原文链接:

https://www.forbes.com/sites/jamesmorris/2021/02/13/self-driving-cars-wont-go-mainstream-until-we-solve-this-problem/?sh=758055bf2f3b

编辑:jq

打开APP阅读更多精彩内容
声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉

全部0条评论

快来发表一下你的评论吧 !

×
20
完善资料,
赚取积分