591
国际财经网
加载中...
您的位置:首页 >金融 > 正文

自动驾驶比人靠谱12.5%,Waymo整出了数学模型证明

2022-10-07 19:17:11 来源:IT之家  阅读量:7964   

自动驾驶老前辈Waymo表示:

我们的AI驾驶员可以避免75%的碰撞,减少93%的严重伤害,这些都高于理想人类驾驶员模型的62.5%和84%。

等等,你找到问题了吗。

Waymo对自动驾驶安全做出如此准确的量化描述的依据是什么。

Waymo最新论文的目的不是炫耀自动驾驶有多安全,至少不是全部。

AEB是标配,智能车已经叫了很多年了。

但是,每个家庭都有不同的标准多少速度,什么样的障碍下AEB或紧急回避生效,是一个合格的产品

Waymo的真正目标是试图制定一套规范来定义和评估自动驾驶系统是否安全。

未来任何一家公司都会说自动驾驶比人类驾驶员更安全,需要有科学的计算系统来支撑,而不是简单笼统地比较不同条件下的路测和事故。

评测基准是什么:建模人的反应时间。

Waymo的贡献之一是,他们开发了一种全新的架构模型——在真实的道路环境中,对驾驶员的反应时间进行测量和建模。

其实简单来说就是用人类驾驶员对突发事件的平均反应时间来对比一个自动驾驶系统的反应时间。

这种架构不仅适用于自动驾驶,也适用于其他交通安全领域。

具体来说,该模型基于两个核心观点:

首先,为了避免碰撞,司机经常选择刹车或方向盘他们做出这一举动,主要是因为现在的交通状况和他们最初想的不一样,也就是司机表现出了惊讶

也就是说,反应时间取决于驾驶员对当前交通状况的预测而惊喜何时开始将直接决定反应时间的长短

第二,反应时间取决于动态交通环境没有放之四海而皆准的固定时间,可以适用于所有不同的场景

比如你前面的车突然刹车,你可以快速反应,相反,在其他条件相同的情况下,如果前车减速慢,你的反应时间也会相应延长。

需要注意的是,这里的反应时间仅指驾驶员决定刹车还是转弯的心理过程,不包括后续的躲避动作。

下图可以更好的解释他们的模型架构。

整个过程可以概括为认知转变。

事实上,前车确实刹车减速了因此,驾驶员的预判是正确的,与事实结果相符在这样的情况下,司机没有出现任何意外

在画面的下半部分,司机以为前车要继续前行,但事实是前车突然刹车,这与他的心理预期不符,他的认知在迭代更新。

下图可以进一步说明认知转变的整个过程。

这个模型框架的出现主要是为了解决以往反应时建模的两个局限:

1,反应时间过于依赖周围环境,

2.如何明确定义刺激因素。

Waymo希望在真实的道路环境中,面对各种复杂的驾驶环境,测量人类从看到障碍物到踩刹车的反应时间。

传统上对反应时间的分析一般基于具体的可控实验,无法明确界定常见交通事故中的刺激何时触发。

有了这样一个严谨的反应时间基准模型,就可以对自动驾驶系统的性能进行评估。

作为参考模型的人类驾驶员

为了判断Waymo自己的AI司机的表现,除了上面提到的反应时间模型,还需要一个标准和参考。

NIEON应运而生。

也就是说,NIEON的司机没有智力或听力或视力障碍他开车的时候一直保持专注,不会分心,也不会累,更不会困

将Waymo的AI司机与NIEON的模型进行对比后,结果是:

在防撞反应中,Waymo的自动驾驶系统同时卷入16起交通事故,能够避免12起碰撞,即避免概率达到75%。

注意:这里特指防撞反应,不包括事故预防反应,是指你改变轨迹和速度以避免事故/降低事故的严重程度,或者你在失去控制后重新控制了车辆。

相比之下,理想的NIEON模型可以避免10次碰撞,避免概率为62.5%。

同时,Waymo的自动驾驶系统可以减少93%的碰撞造成的严重伤害,NIEON模型只能减少84%。

所以Waymo得出的结论是,他们的自动驾驶AI司机比旧的人类司机更安全。

该论文指出,类似NIEON的行为参考模型可以作为判断一套ADS自动驾驶质量和安全性的基准。

至于测试结果是否可靠,Waymo官方也在论文中谈到了四个局限性。

首先,他们目前使用的数据集,涉及的碰撞事故主要是人为造成的目前,当然重要的是要考虑清楚自动驾驶系统如何正确应对这些已知的人为引发的碰撞,同时测试这个系统避免类似行为的能力

其次,这项研究只是根据警方报告的碰撞事故重建了模型,官方文件记录的碰撞事故数量可能与真实情况有出入。

再次,目前的研究只是基于单一的NIEON模型运行来判断Waymo的自动驾驶系统的好坏。

第四,在模拟环境中,对整个自动驾驶仪系统在不同条件下的性能进行了测试如果是一些特定场景的挑战,严格来说并不适用这种方法

为了不炫耀数据,Waymo的两篇文章有什么意义。

先说最常见的问题:为什么自动驾驶很难落地。

表面上看,法律法规不完善,自动驾驶车辆权责划分不明确。

但我们不妨从立法机关的角度来考虑为什么在目前的L2—L3阶段,自动驾驶的责任划分不明确

很简单,因为目前的自动驾驶系统还没有完善到万无一失的地步,人类驾驶员需要做好随时接管的准备。

这一收购的时机和条件一直不明朗。

没有定性和定量的标准来界定人类在什么样的情况下需要接管制度,自然无法在法律上明确划分权利和责任。

所以,法律法规的不完善,根源不在于立法的滞后,而在于整个自动驾驶行业,始终没有给立法机关提供能够在法律层面发挥作用的技术标准。

即使是全行业SAE的L0—L5分类,也是基于人为干预的感性描述,而非科学严谨的量化描述。

要在法律法规层面扫清自动驾驶落地的障碍,需要在系统可靠性,道路复杂性,系统能力边界,人为干预条件,系统故障临界点等维度给出准确严谨的定义。

Waymo的两篇论文针对自动驾驶系统可靠性这个维度,以反应时间为标准,定量计算自动驾驶系统的可靠性。

据说自动驾驶比人类司机更可靠有多靠谱

以前特斯拉的演讲技巧是通过对比美国交管部门对非自动驾驶车辆的事故统计和特斯拉的事故得出的。

但第一个问题是,美国的路况,车况,事故类型太复杂,远远超出了自动驾驶数据库的场景覆盖范围。

有些人类无法避免的事故,FSD也无法避免只有在相同条件下重复实验,才能得出结论

但这显然不现实这也是特斯拉商业宣传的困惑

Waymo的模式和方法虽然不能确定会成为行业标准,但至少是定义自动驾驶安全性的良好开端。

当然,Waymo的两篇论文还有另外一层意思,就是再次向大众普及科学自动驾驶不等于零事故

即使是L4,L5这样先进的自动驾驶系统,仍然有失效的风险。

自动驾驶的意义在于系统失效的风险低于人类,可以极大地促进社会经济运行的效率。

这一点现在已经得到了严格的证明,也有了立法依据。

好了,这就是这两篇论文的亮点。如果你想阅读全文,这里还有链接:

声明:以上内容为本网站转自其它媒体,相关信息仅为传递更多企业信息之目的,不代表本网观点,亦不代表本网站赞同其观点或证实其内容的真实性。投资有风险,需谨慎。

推荐内容

c9d