华中大提出全景驾驶感知网络YOLOP,可同时处理三项视觉感知任务,准确性和速度都达到SOTA

#交通目标检测##可驾驶区域分割##车道检测#

YOLOP: You Only Look Once for Panoptic Driving Perception

全景驾驶感知系统是自主驾驶的一个重要组成部分,一个高精度和实时的感知系统可以帮助车辆在行驶中做出合宜的决定。

在本次工作中,作者提出一个全景驾驶感知网络,YOLOP,可以同时进行 traffic object detection(交通目标检测)、 drivable area segmentation(可驾驶区域分割)和 lane detection(车道检测),并且可以进行端到端训练。它是由一个用于特征提取的编码器和三个用于处理具体任务的解码器组成。

YOLOP架构

在具有挑战性的 DDD100K 数据集上表现非常好,在所有三个任务的准确性和速度方面都达到了最先进的水平。此外,通过消融研究验证了该多任务学习模型在联合训练中的有效性。作者还表示,这是首项能够在嵌入式设备 Jetson TX2(23 FPS)上同时实时处理这三项视觉感知任务并保持出色准确性的工作。

交通目标检测结果:

可视化结果

可驾驶区域分割结果:

可视化结果

车道检测结果

可视化结果

作者 | Dong Wu, Manwen Liao, Weitian Zhang, Xinggang Wang

单位 | 华中科技大学

论文 | arxiv.org/abs/2108.1125

代码 | github.com/hustvl/YOLOP

转载请注明:《华中大提出全景驾驶感知网络YOLOP,可同时处理三项视觉感知任务,准确性和速度都达到SOTA