车道检测方法#
概述#
本文档介绍了自动驾驶行业中最常用的一些车道检测方法. 车道检测是自动驾驶中的一项关键任务,因为它用于确定道路的边界和 车辆在车道内的位置.
Methods#
本文档涵盖了两类方法:通道检测方法和多任务检测方法.
注意
结果是使用预先训练的模型获得的.使用您自己的数据训练模型将产生更多 成功的结果.
车道检测方法#
CLRerNet#
这项工作介绍了 LaneIoU,它通过考虑局部车道角度来提高置信度得分的准确性,以及 CLRerNet, 一种利用 LaneIoU 的新型探测器.
| 方法 | 骨干 | 数据 | 信心 | 校园视频 | 公路视频 |
|---|---|---|---|---|---|
| CLRerNet | dla34 | culane | 0.4 | ||
| CLRerNet | dla34 | culane | 0.1 | ||
| CLRerNet | dla34 | culane | 0.01 |
CLRNet#
这项工作引入了跨层细化网络 (CLRNet),以充分利用高级语义和低级详细 车道检测功能. CLRNet 检测具有高级特征的通道,并使用低级详细信息对其进行优化. 此外,ROIGather 技术和线 IoU 损失显著提高了定位精度, 优于最先进的方法.
| 方法 | 骨干 | 数据 | 信心 | 校园视频 | 公路视频 |
|---|---|---|---|---|---|
| CLRNet | dla34 | culane | 0.2 | ||
| CLRNet | dla34 | culane | 0.1 | ||
| CLRNet | dla34 | culane | 0.01 | ||
| CLRNet | dla34 | llamas | 0.4 | ||
| CLRNet | dla34 | llamas | 0.2 | ||
| CLRNet | dla34 | llamas | 0.1 | ||
| CLRNet | resnet18 | llamas | 0.4 | ||
| CLRNet | resnet18 | llamas | 0.2 | ||
| CLRNet | resnet18 | llamas | 0.1 | ||
| CLRNet | resnet18 | tusimple | 0.2 | ||
| CLRNet | resnet18 | tusimple | 0.1 | ||
| CLRNet | resnet34 | culane | 0.1 | ||
| CLRNet | resnet34 | culane | 0.05 | ||
| CLRNet | resnet101 | culane | 0.2 | ||
| CLRNet | resnet101 | culane | 0.1 |
FENet#
本研究介绍了聚焦采样、部分视场评估、增强型 FPN 架构、 以及 Directional IoU Loss,解决了自动驾驶精确车道检测的挑战. 实验表明,聚焦采样强调对安全至关重要的远距离细节, 与统一方法相比,显著提高基准和实际曲线/远距离车道识别的准确性.
| 方法 | 骨干 | 数据 | 信心 | 校园视频 | 公路视频 |
|---|---|---|---|---|---|
| FENet v1 | dla34 | culane | 0.2 | ||
| FENet v1 | dla34 | culane | 0.1 | ||
| FENet v1 | dla34 | culane | 0.05 | ||
| FENet v2 | dla34 | culane | 0.2 | ||
| FENet v2 | dla34 | culane | 0.1 | ||
| FENet v2 | dla34 | culane | 0.05 | ||
| FENet v2 | dla34 | llamas | 0.4 | ||
| FENet v2 | dla34 | llamas | 0.2 | ||
| FENet v2 | dla34 | llamas | 0.1 | ||
| FENet v2 | dla34 | llamas | 0.05 |
多任务检测方法#
YOLOPv2#
这项工作提出了一种用于自动驾驶的高效多任务学习网络, 结合了交通对象检测、可行驶道路区域分割和车道检测. YOLOPv2 模型在 BDD100K 数据集上实现了最先进的准确性和速度性能, 与以前的基准测试相比,推理时间减半.
| 方法 | 校园视频 | 公路视频 |
|---|---|---|
| YOLOPv2 |
HybridNets#
这项工作介绍了 HybridNets,一种用于自动驾驶的端到端感知网络. 它使用加权双向特征网络优化分割头和箱/类预测网络. HybridNets 在 BDD100K 和 Berkeley DeepDrive 数据集上取得了良好的性能,优于最先进的方法.
| 方法 | 校园视频 | 公路视频 |
|---|---|---|
| HybridNets |
TwinLiteNet#
这项工作介绍了 TwinLiteNet,这是一种轻量级模型,专为 自动驾驶.
- 论文: TwinLiteNet: An Efficient and Lightweight Model for Driveable Area and Lane Segmentation in Self-Driving Cars
- 代码: GitHub
| 方法 | 校园视频 | 公路视频 |
|---|---|---|
| Twinlitenet |
Citation#
@article{honda2023clrernet,
title={CLRerNet: Improving Confidence of Lane Detection with LaneIoU},
author={Hiroto Honda and Yusuke Uchida},
journal={arXiv preprint arXiv:2305.08366},
year={2023},
}
@InProceedings{Zheng_2022_CVPR,
author = {Zheng, Tu and Huang, Yifei and Liu, Yang and Tang, Wenjian and Yang, Zheng and Cai, Deng and He, Xiaofei},
title = {CLRNet: Cross Layer Refinement Network for Lane Detection},
booktitle = {Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR)},
month = {June},
year = {2022},
pages = {898-907}
}
@article{wang&zhong_2024fenet,
title={FENet: Focusing Enhanced Network for Lane Detection},
author={Liman Wang and Hanyang Zhong},
year={2024},
eprint={2312.17163},
archivePrefix={arXiv},
primaryClass={cs.CV}
}
@misc{vu2022hybridnets,
title={HybridNets: End-to-End Perception Network},
author={Dat Vu and Bao Ngo and Hung Phan},
year={2022},
eprint={2203.09035},
archivePrefix={arXiv},
primaryClass={cs.CV}
}
@INPROCEEDINGS{10288646,
author={Che, Quang-Huy and Nguyen, Dinh-Phuc and Pham, Minh-Quan and Lam, Duc-Khai},
booktitle={2023 International Conference on Multimedia Analysis and Pattern Recognition (MAPR)},
title={TwinLiteNet: An Efficient and Lightweight Model for Driveable Area and Lane Segmentation in Self-Driving Cars},
year={2023},
volume={},
number={},
pages={1-6},
doi={10.1109/MAPR59823.2023.10288646}
}