来源:量子位
这是首个基于Transformer的驾驶行为描述框架,可以感知和预测驾驶行为。也就是说,输入车辆视频后,这个算法可以判断车辆行为并告诉你:车在做什么,为什么要这么做。
还在玩ChatGPT?已经有自动驾驶算法能告诉你“我在干嘛”。
基于视觉和神经网络的自动驾驶算法,虽然能通过传感器数据,以及学习人类的驾驶行为,自主决策并控制车辆。
但是,算法基于什么做出的决策?特别是出现故障,也就是决策错误的时候,算法是怎么想的?这些一直被称为自动驾驶算法里的“黑匣子”,让算法缺乏透明度和可解释性。
不过,现在有这么一个模型,既能预测车辆控制行为,还能自己解释“我停车是因为红灯亮了,并且有行人在过马路”。
模型论文入选ICRA 2023,相关模型已开源。
那么,是一个什么样的算法?
ADAPT:驾驶行为感知说明大模型
这是一种叫ADAPT(Action-aware Driving Caption Transformer)的端到端算法,也是目前第一个基于Transformer的驾驶行为描述框架,可以感知和预测驾驶行为,并且输出自然语言叙述和推理。
直白一点说,输入车辆视频后,这个算法可以判断车辆行为并告诉你:车在做什么,为什么要这么做。
在论文作者提供的测试视频里,这个算法最终上车的效果是这样的。(红色字是车辆行为,蓝色字是解释)
“车在向前开。因为路上没有车。”
驾驶行为变化后,算法也能及时感知:
“车靠左边停下了。因为要停车。”
“车开始移动并且靠右行驶。因为路左边停着车。”
算法不仅能识别路口,也能识别骑着车的人。
“车在十字路口停下了。因为要避开街上骑着自行车的人,”
这是怎么实现的?
多任务框架下的联合训练
ADAPT框架可以分为两个部分:车辆行为描述(DCG,Driving Caption Generation)和车辆控制信号预测(CSP,Control Signal Prediction)。
首先,传感器端输入视频,Video Swin Transformer对车辆视频进行编码,得到的视频特征会输入进各任务模块里。
在DCG模块,算法利用Vision-Language Transformer生成两个自然语句,也就是上文中提到的车辆行为描述和原因解释。
相同的视频特征也会输入进CSP模块(类似一般基于视觉的自动驾驶系统),输出车辆实际的控制信号序列,并利用Motion Transformer输出模型预测的控制信号,比如速度、方向和加速度。
在单个网络中,作者利用车辆实际的控制信号序列和模型预测的控制信号序列,两者的均方误差作为CSP模块的损失函数。
而在多任务框架下,通过联合训练DCG和CSP,可以减少车辆决策和文本描述之间的差异,提高控制信号预测的准确率。
论文里,作者们在包含控制信号和车辆视频的大规模数据集BDD-X上,利用机器评测和人工评测验证了ADAPT的有效性。
机器评测方面,使用的是BLEU4、METEOR、ROUGE-L和CIDEr(对应缩写分别为B4、M、R、C)等多种语言任务常用的指标。
最终显示ADAPT达到了当前最优(State-of-the-Art)的结果,ADAPT在动作描述方面比原有先进方法CIDEr高出31.7,在原因解释方面高33.1。
人工评测分为动作描述、原因解释和全句三个部分。通过人工判断,ADAPT在这三部分的准确性分别达到了90%,90.3%和82.7%,证明了ADAPT的有效性。
在可视化结果里,也能看出ADAPT可以准确识别车辆行为以及决策原因。并且在黑夜、阴雨天等场景下,ADAPT也能保证准确度;即使有雨刷器干扰,ADAPT也可以识别道路上的停止标识。
为什么需要ADAPT?
自动驾驶行为的可解释性
在基于视觉的自动驾驶算法里,比较常见的解释图有视觉注意图(Attention Map),或者成本量图(Cost Volume),但不熟悉自动驾驶算法的人容易对这些图造成误解。
因此,ADAPT这种能够生成自然语言、“说人话”的算法,能够帮助用户更好地理解自动驾驶算法在做什么、为什么要这么做,同时还能让用户更信任自动驾驶技术。
而对于算法工程师和研究人员来说,当发生极端情况时、或者发生故障(比如判断错误)时,ADAPT可以帮助他们获得更多信息,进而改进算法。
作者们将进一步研究如何在模拟器和实际车辆上如何部署ADAPT,以及如何利用文本转语音技术,让生成的句子转化为语音,帮助普通乘客,特别是视力障碍乘客使用。
标签: