Skip to content

车道检测方法#

概述#

本文档介绍了自动驾驶行业中最常用的一些车道检测方法. 车道检测是自动驾驶中的一项关键任务,因为它用于确定道路的边界和 车辆在车道内的位置.

Methods#

本文档涵盖了两类方法:通道检测方法和多任务检测方法.

注意

结果是使用预先训练的模型获得的.使用您自己的数据训练模型将产生更多 成功的结果.

车道检测方法#

CLRerNet#

这项工作介绍了 LaneIoU,它通过考虑局部车道角度来提高置信度得分的准确性,以及 CLRerNet, 一种利用 LaneIoU 的新型探测器.

方法 骨干 数据 信心 校园视频 公路视频
CLRerNet dla34 culane 0.4
CLRerNet dla34 culane 0.1
CLRerNet dla34 culane 0.01

CLRNet#

这项工作引入了跨层细化网络 (CLRNet),以充分利用高级语义和低级详细 车道检测功能. CLRNet 检测具有高级特征的通道,并使用低级详细信息对其进行优化. 此外,ROIGather 技术和线 IoU 损失显著提高了定位精度, 优于最先进的方法.

方法 骨干 数据 信心 校园视频 公路视频
CLRNet dla34 culane 0.2
CLRNet dla34 culane 0.1
CLRNet dla34 culane 0.01
CLRNet dla34 llamas 0.4
CLRNet dla34 llamas 0.2
CLRNet dla34 llamas 0.1
CLRNet resnet18 llamas 0.4
CLRNet resnet18 llamas 0.2
CLRNet resnet18 llamas 0.1
CLRNet resnet18 tusimple 0.2
CLRNet resnet18 tusimple 0.1
CLRNet resnet34 culane 0.1
CLRNet resnet34 culane 0.05
CLRNet resnet101 culane 0.2
CLRNet resnet101 culane 0.1

FENet#

本研究介绍了聚焦采样、部分视场评估、增强型 FPN 架构、 以及 Directional IoU Loss,解决了自动驾驶精确车道检测的挑战. 实验表明,聚焦采样强调对安全至关重要的远距离细节, 与统一方法相比,显著提高基准和实际曲线/远距离车道识别的准确性.

方法 骨干 数据 信心 校园视频 公路视频
FENet v1 dla34 culane 0.2
FENet v1 dla34 culane 0.1
FENet v1 dla34 culane 0.05
FENet v2 dla34 culane 0.2
FENet v2 dla34 culane 0.1
FENet v2 dla34 culane 0.05
FENet v2 dla34 llamas 0.4
FENet v2 dla34 llamas 0.2
FENet v2 dla34 llamas 0.1
FENet v2 dla34 llamas 0.05

多任务检测方法#

YOLOPv2#

这项工作提出了一种用于自动驾驶的高效多任务学习网络, 结合了交通对象检测、可行驶道路区域分割和车道检测. YOLOPv2 模型在 BDD100K 数据集上实现了最先进的准确性和速度性能, 与以前的基准测试相比,推理时间减半.

方法 校园视频 公路视频
YOLOPv2

HybridNets#

这项工作介绍了 HybridNets,一种用于自动驾驶的端到端感知网络. 它使用加权双向特征网络优化分割头和箱/类预测网络. HybridNets 在 BDD100K 和 Berkeley DeepDrive 数据集上取得了良好的性能,优于最先进的方法.

方法 校园视频 公路视频
HybridNets

TwinLiteNet#

这项工作介绍了 TwinLiteNet,这是一种轻量级模型,专为 自动驾驶.

方法 校园视频 公路视频
Twinlitenet

Citation#

@article{honda2023clrernet,
title={CLRerNet: Improving Confidence of Lane Detection with LaneIoU},
author={Hiroto Honda and Yusuke Uchida},
journal={arXiv preprint arXiv:2305.08366},
year={2023},
}
@InProceedings{Zheng_2022_CVPR,
    author    = {Zheng, Tu and Huang, Yifei and Liu, Yang and Tang, Wenjian and Yang, Zheng and Cai, Deng and He, Xiaofei},
    title     = {CLRNet: Cross Layer Refinement Network for Lane Detection},
    booktitle = {Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR)},
    month     = {June},
    year      = {2022},
    pages     = {898-907}
}
@article{wang&zhong_2024fenet,
      title={FENet: Focusing Enhanced Network for Lane Detection},
      author={Liman Wang and Hanyang Zhong},
      year={2024},
      eprint={2312.17163},
      archivePrefix={arXiv},
      primaryClass={cs.CV}
}
@misc{vu2022hybridnets,
      title={HybridNets: End-to-End Perception Network},
      author={Dat Vu and Bao Ngo and Hung Phan},
      year={2022},
      eprint={2203.09035},
      archivePrefix={arXiv},
      primaryClass={cs.CV}
}
@INPROCEEDINGS{10288646,
  author={Che, Quang-Huy and Nguyen, Dinh-Phuc and Pham, Minh-Quan and Lam, Duc-Khai},
  booktitle={2023 International Conference on Multimedia Analysis and Pattern Recognition (MAPR)},
  title={TwinLiteNet: An Efficient and Lightweight Model for Driveable Area and Lane Segmentation in Self-Driving Cars},
  year={2023},
  volume={},
  number={},
  pages={1-6},
  doi={10.1109/MAPR59823.2023.10288646}
}