能效高的车道识别模块——基于滑动的并行段落识别加速器(适用于 FPGA)
摘要
车道检测是集成到车辆中的一种新兴技术,用于促进自主导航。大多数现有的车道识别系统是为结构良好的道路开发的,依赖于车道模式的存在。为了解决这一限制,我们提出了一种基于滑动的 K 均值并行段图像分配方法。由于大多数自动驾驶车辆中的车载系统轻量化,该方法经过优化以最小化计算负载和功耗。通过对已进行边缘检测的图像应用 Hough 变换实现车道识别。边缘检测的主要目标是识别并定位像素强度的急剧变化,这定义了场景中对象边界和不同元素。Canny 算法存在多种实现方式,边界检测是许多计算机视觉应用中的基本步骤,例如基于边缘的障碍物识别、面部识别、目标检测和图像压缩。这些计算技术有助于区分垂直、平面、阶梯和角落边缘。边缘检测的有效性取决于照明条件、噪声水平、边缘密度以及图像内强度变化等因素。因此,获得精确的边界定位至关重要。因此,计算方法必须考虑这些强度波动,以建立准确的边缘检测相关性。最终,该过程通过降低噪声、提升对比边界和优化处理时间,确保车道检测效果。
作者
T. Karpagalakshmi 电子与通信工程系,阿德哈帕萨克西工程学院,梅尔马鲁瓦图尔,印度
M. Malathi 电子与通信工程系,阿德哈帕萨克西工程学院,梅尔马鲁瓦图尔,印度
出版信息
期刊: 2025 International Conference on Computing and Communication Technologies (ICCCT) 年份: 2025 页码: 1-6 DOI: 10.1109/ICCCT63501.2025.11020556 文章编号: 11020556 ISSN: Electronic ISSN: 2995-3197, Print on Demand(PoD) ISSN: 2995-3189
指标
总下载量: 12
关键词
IEEE Keywords: 图像分割, 计算机视觉, 车道检测, 图像边缘检测, 道路, 人脸识别, 照明, 变换, 能源效率, 可编程门阵列
Index Terms: 车道识别, 光照条件, K-均值, 计算机视觉, 图像分割, 自动驾驶车辆, 边缘检测, 图像压缩, 霍夫变换, 不良环境, 二值图像, 聚类中心, 正交投影, 鸟瞰, 去畸变, 低成本方案, RANSAC 随机采样一致性, 摄像机标定, 后续帧, 驾驶员辅助, 透视变换, 彩色分割, 左车道, 车道标记, 直线段, 边缘点, 锐曲线, 道路几何, 直路, 数字图像
Author Keywords: 自动驾驶技术, 车道识别, Canny 边缘检测, 霍夫变换, FPGA 优化, 节能设计, K-均值聚类
未定义
第一节:简介
道路上车辆数量的增加以及对安全、更加有序的交通系统的日益增长的需求,推动了驾驶员辅助和自动驾驶技术的发展。在这些技术中,准确的车道检测在确保车辆保持在指定车道内、从而直接提升道路安全方面发挥着关键作用。
然而,在动态环境以及不同的照明、天气和车道磨损条件下,车道检测面临重大挑战。这些因素使任务变得复杂,并且需要稳健、实时的解决方案。基于计算机视觉的方法已经显示出应对这些困难的潜力,通过提供能够以类似人类视觉的方式解释环境的算法。
在此背景下,本文旨在利用传统计算机视觉技术开发一套车道检测系统。 与最近基于机器学习的方法不同,本文所提方法旨在探索对大规模数据依赖性较低、计算成本更低的技术,从而适用于功能受限的设备,例如嵌入乘用车的摄像头。 该系统旨在克服恶劣天气、车道磨损及不同类型道路等障碍,为实时检测提供高效方案。 车道检测的方法包括相机标定、畸变校正、透视变换以获得鸟瞰图、采用限制技术进行车道分割,以及滑窗方法追踪检测到的车道。 Eric Hsueh-Chan Lu 和 Wei-Chih Chiu 1 引入了基于 CycleGAN 的车道检测方法,融合了 CycleGAN 与图像分割方法,并为结果差异设计了损失函数 2。 Yingying Xing 等人 3 建议采用墨西哥帽小波(Mexican hat Wavelet, MHW)进行关键时点的精确检测 4。 Lu Zhang 等人 5 提出了一种新颖的车道揭示技术 TSA-LNet,结合双向分离注意力(TSA)和轻量级网络(LNet),以提升车辆的检测能力 6。 Yuxuan Chai 等人 7 通过改进基于行锚的车道识别方法来解决这些挑战。他们使用 Transformer 编码器-解码器结构,行排列增强了模型捕捉普遍地形并在复杂环境中准确识别车道边界的能力 8.
Yuxuan Chai 在基于激光雷达的车道检测方面做出了三方面的重要贡献。首先,提出了 BoostedDim Attention 方法,以改进浅层基于视觉变换器的 K-Lane 基线模型中传统多头自注意力 (MHA) 的计算。该方法在短距离 (0–30 m) 的陌生和夜间环境以及长距离 (30–50 m) 的日间场景中都表现出高度有效性 9。Seung-Hwan Lee 等人 10 采用 A U-Net 驱动的框架实现了一种技术,学习时将额外的车道特定细节整合到一个四通道输入数据结构中,以考虑车道特征。第四通道充当边缘注意力图 (E-attention map),使模块能够获得更专注于车道检测的专门学习能力 11.
Sunil Kumar 等人 12,提出了一种使用语义划分来识别高维数据集中道路轮廓的高效车道检测方法,该方法通过整合垂直纵向属性和适当的拉伸数据来实现。该研究引入了两个设计模块——特征集成块和信息交换块——以增强对不确定且拥堵车道线的检测 13。Libo Sun 等人提出了一种创新的基于锚点的车道检测网络 (SP-Det),它集成了车道线的独特机械特性和像素传递。具体而言,他们引入了语义引导特征校准单元 (SG-FCU),以在不同涂层之间进行语义调整和改进地形,有效减少整个联合中的语义断裂 14.
第二节:方法论
该理论的目标是创建一种高效、低计算成本的解决方案,能够实时运行并适用于多种路况。所采用的方法基于相机标定、透视变换以及颜色与梯度分割,在正常驾驶条件下精准检测车道,白天场景中准确率超过 90%。
虽然系统在大多数测试中表现出稳健的性能,但在使用聚类算法于不良条件下(如磨损车道、严重天气变化和急弯)时观察到局限性。这些局限性凸显了未来改进的必要性,特别是在为高环境变异性场景调整分割阈值以及改进更复杂几何形状道路的视角投影方面。
已实现的管道模块化允许迭代改进,使得能够集成更先进的计算机视觉或深度学习技术来处理更具挑战性的场景。此外,结合其他传感器,如 LiDAR 或雷达,可以提升系统的鲁棒性,使其更能适应不同的交通和环境条件。
如图 1 所示,所提出的系统具有在驾驶辅助系统和自动驾驶车辆中的显著应用潜力,尤其适用于需要高效、低成本解决方案的场景。尽管存在已观察到的局限性,传统的计算机视觉方法为未来的扩展和改进提供了坚实基础,并具备在各类辅助驾驶和车辆自动化领域的应用可能性。
图 1:所提系统的框图
A. Hough 变换的不同变体与方法
随着时间的推移,几种修改和方法提升了 Hough Transform 的效率和多样性:
Paul Hough 提出的用于检测直线的原始概念被称为标准 Hough Transform(Standard Hough Transform,SHT)。该方法涉及对所有可能的参数组合进行投票并将参数空间离散化。
概率 Hough Transform(Probabilistic Hough Transform,PHT):PHT 通过随机选择一部分边缘点并仅在这些特定位置执行线检测来提高效率。此方法降低了计算复杂度,同时保持准确性,适用于实时应用。
累加器空间维度:传统的霍夫变换在二维中识别直线,但它也可以扩展到更高维度以检测更复杂的形状,例如椭圆或圆。每增加一个维度就对应检测形状的一个额外参数。为降低图像中的噪声,使用 5\times 5 高斯滤波器。随后使用 Sobel 核来确定图像的强度梯度,检测直线、垂直和斜向的边缘。对图像进行全局扫描,并通过消除不代表边缘的无用像素——这一步称为非极大值抑制(Non-Maximum Suppression)——来实现。最后一步,滞后限制(Hysteresis Limiting),通过使用最小值和最大值两种阈值来判断哪些边缘是有效的,从而区分真实边缘与噪声。
边缘分类:强度梯度超过极大阈值的边缘被确认为有效边缘,而低于最小阈值的边缘则被剔除。剩余的边缘——其梯度值位于这两个阈值之间——根据它们的连通性进行分类。
B. 图像扩展
Canny 边缘检测结果为仅包含路径边界形状的图像,其余所有图像特征被去除。随后需要将该处理过的图像输入到进一步的分析程序中,以检测车道几何信息。然而,在此之前,需要对图像进行膨胀处理,以提升边缘清晰度,使边缘更加连续并减少断裂。膨胀操作会放大像素区域,并在物体边界上添加像素。
随后将图像划分为水平切片,并在每个切片上滑动一个搜索窗口——一个固定宽度和高度的矩形区域——以识别具有最高边缘像素频率的区域。为此,窗口搜索会分析二值图像下半部分的直方图,帮助确定车道线起始的大致位置。在检测到左右两条边缘后,使用合适的函数生成沿线的最佳拟合曲线。
由于窗口扫描计算量大,可以在后续帧中使用边缘搜索来优化处理时间。边缘搜索将搜索范围限制在先前检测到的车道线周围的狭窄区域,从而在保持准确性的同时提高效率。
C. 透视变换
在畸变校正后,图像会被执行透视变换以模拟鸟瞰视角。此技术在车道检测中被广泛使用,因为道路的正交投影有助于将车道识别为大致平行的线条,从而简化检测和跟踪过程。
透视变换是使用 cv2.getPerspectiveTransform 函数完成的,该函数需要在原始图像中定义四个源点及其在变换后图像中的对应坐标。
这些点是经验性地选择的,考虑到原始图像中的车道可能因摄像头位置和道路几何形状而出现失真。透视变换旨在对齐车道,使其在直线道路段上能被更精确地检测。然而,在急弯道路上,该技术存在局限性,因为正交投影可能无法准确表示实际车道轨迹。这个问题将在后续的车道检测与跟踪步骤中得到解决,通过引入能够处理道路几何变化的算法。
D. 图像分割
管线的第三步是图像分割,这是一个关键过程,用于隔离与车道标记对应的像素。为此,采用了基于梯度和颜色通道的组合限制技术。分割的目标是突出车道标记,使其与道路其余部分和周围场景区分开来。
该方法探索了不同的颜色空间,如 RGB、HLS、HSV 和 LAB,以在各种照明和表面条件下最大化系统的鲁棒性。每种颜色空间都提供了独特的特征,有助于隔离道路上常见的白色和黄色车道标记。
在 HLS 空间中,例如,使用自适应限幅来检测黄色和白色车道。遇到的挑战之一是根据道路状况(尤其是磨损或高反射表面)调整检测阈值。使用 cv2.inRange 函数创建二值掩膜,突出所关注的车道,然后将它们组合以生成最终的二值图像。
E. 车道检测
生成二值图像后,下一步是车道检测。为此,使用滑动窗口方法,这是一种在图像中广泛应用于线段分割的技术。滑动窗口算法通过识别图像中像素密度较高的区域(对应车道)来工作。一旦确定了初始点,算法沿图像扩展窗口,跟踪与车道相关的像素,并将其拟合为描述车道在道路上轨迹的二次多项式。
如图 2 所示的车道检测方法具有实时高效且在直线路面上运行稳健的优势。然而,在弯曲道路或车道部分磨损的情况下,检测可能不够精确。为减轻这一问题,引入了自适应搜索技术,使算法能够根据前帧检测到的车道几何特征自动调整检测窗口。此外,结合不同的颜色和梯度分割方法对车道检测进行了细化,确保系统在各种照明和路面纹理条件下的鲁棒性。随后,将对应车道的像素组织成逻辑序列,从而在视频处理过程中实现连续的车道跟踪。
Fig 2: 车道检测处理
F. 车道检测精度
该算法在多种道路条件下对车道标线的识别表现出稳健的性能。当在CU Lane和Tu Simple数据集的视频上进行测试时,系统能够准确检测并跟踪车道,无论是在直线段还是略微弯曲的道路上。视角变换技术与颜色和梯度分割相结合,有效地将车道与图像其余部分分离,促进了在处理帧中连续跟踪的实现。具体而言,白色和黄色车道标线在被评估视频的道路上占主导地位,且始终被识别,即使在可变光照条件下,如直接阳光和部分阴影。夜间照明场景中,只要车道清晰定义且相对于路面具有足够对比度,颜色分割同样有效。
G. 在恶劣条件下的性能
尽管系统在正常驾驶条件下表现出令人满意的准确性,但在恶劣情境中仍发现了一些挑战。在道路车道标线严重磨损或极端天气(如雾霾或强烈阳光反射)下,算法的检测准确性下降。主要原因是车道标线与道路其余部分的对比度低,使得精确分割对应车道像素变得困难。
此外,在急转弯的路段,视角变换会导致车道投影失真,从而削弱跟踪准确性。这种现象源于视角变换所使用的正交投影,正交投影往往难以充分表现曲线路径的几何特征。
H. 使用K均值与RANSAC方法寻找边界
该方法将左车道和右车道分别识别出来。由于无法确定一个边缘点属于左车道还是右车道,采用K均值聚类过程将边缘点划分为两个组:左车道和右车道,如图3所示。
图3:K簇流模型
K-means 聚类是一种简单而高效的聚类算法,需要在分类前指定所需的聚类数量。K-means 聚类的主要目标是最小化一个目标函数,其定义如下:
在这里,\Vert \text{xi}(\mathrm{j})-\text{cj}\Vert^{2} 表示数据点 xi(j) 与聚类中心 cj 之间所选的距离度量,用来表示 n 个数据点到其对应聚类中心的接近程度。该过程概括了 K-means 聚类算法的关键阶段。
在本研究中,我们将 k 设置为 2,即聚类数量为 2。最初为每条车道随机选择两个边缘点作为起始聚类中心。随后根据测得的距离和方向,将其余边缘点分配到最近的聚类中心。
在下一阶段,计算每个聚类的平均值,并将其视为更新后的聚类中心。随后,以这些新的聚类中心重复整个过程,直至其位置不再变化。结果,我们得到左车道组和右车道。
为每个包含大量异常值的 K-means 聚类数据集建模线时,霍夫变换和最小二乘拟合技术均无效。因此,我们采用了随机样本一致性(RANSAC)算法。迭代次数 NNN 设定得足够高,以确保至少有一次随机选取的样本集不含异常值的概率达到 99%。在本研究中,NNN 设为 300,得到所提方法的最终结果。确定左、右车道边界后,计算其交点。该点随后被视为序列中下一帧的水平线位置。此策略提升了整个过程的稳定性,并通过省略重复检测水平线来减少计算量。
I. K-means 输出的后处理
一种直接的方法是考虑聚类平均线段的中点。 这些中点作为控制点,能够使整个车道以由这些点构成的样条曲线表示。 如前所述,相较于直道,弯道包含更多的平均点。 这保证了算法能有效捕捉曲率,为高度弯曲的车道提供更精细的表示,同时在直道上使用更少的数据点。 如图4所示,预处理的边缘检测。
图4预处理边缘检测程序
车道通常以样条曲线表示,但仍有一个挑战。 由于聚类的随机初始化,这些数据点未按顺序排列。 结果,车道尚未完全以其正确形式重建。 必须认识到这些点可能无法准确表示所需的车道。 如果点的顺序不正确,正确绘制样条曲线将变得不可能。 为了使数据更适用于可视化,必须将点按适合样条绘制的结构化顺序排列。
车道通常是长而窄的条带,无论其颜色如何。 图像中描绘这些车道的轮廓通常形成细长的多边形。 这些多边形通常有明显的尖端,标记车道的起点。 最接近该尖端的车道数据点充当车道的起点。 这些尖锐的“尖端”或“角点”通常位于准确表示车道的样条曲线的初始点附近。 因此,在 K-Means 聚类得到的点集合中,需要识别最接近该“尖端”的点作为样条曲线的起点。 一旦确定该点,剩余点可通过反复从剩余集合中选择最近点来按顺序排列。 如果输出因数据不均匀而损坏,则采用车道拟合技术来纠正输出。
第III节. 结果与讨论
为了评估车道识别与跟踪过程的表现,结果与真实数据集关联以确定性能指标。若真实数据集中存在车道标记且算法正确检测,则为真正例;若算法检测到不存在的车道标记,则为假正例。若算法未检测到真实数据集中存在的车道标记,则为假负例;若真实数据集中不存在车道标记且算法正确未检测到,则为真负例。图 5 中展示了模型视图。
图 5:模型视图
图 6:检测到的车道点
图 6 表示检测到的车道点。由此,整体算法保持多项式时间复杂度,适合实时应用,同时确保高精度。在去噪阶段,选择适当的窗口大小并确定不稳定分离对于保持可靠性能至关重要。因此,RL 和 RU 的值分别确定为 0.07 和 0.55。在线检测步骤中对滑动窗口方法进行了调整。具体而言,SC 设置为 7\times 30,KC 设置为 10。算法中使用的限制参数详见表 1。
表 1:
最终输出通过矩阵 W 的逆变换回到地面平面,整个过程仅需 50 毫秒每幅图像。数字图像处理涉及设计能够在数字图像上执行操作的数字系统。
一幅图像本质上是一个二维信号,数学上表示为 f(x, y),其中 x 和 y 分别对应水平和垂直坐标。该坐标对 (x, y) 的大小 off 被称为该特定点处图像的亮度或灰度水平。当 x、y 和 f 的幅值都有限且取离散值时,该图像被称为数字图像。数字图像由一组有限元素组成,每个元素具有唯一的位置和值,通常称为图像元素、图像元、像素或像素点。图 7 和 8 所示的 region of intrest 和 output。
图 7 区域兴趣(ROI)结构
图 8. 输出
第四节 结论
该算法旨在识别车道边界并将其统计信息转换为适当的结构化排列,以供自动驾驶系统进行进一步处理。该目标已成功实现,使得该算法能够集成到各种应用的自动驾驶系统中。未来的改进可能侧重于使用更精确的数学近似来优化 K-Means 聚类、改进照明归一化方法以及实施更有效的噪声抑制技术。本研究使用传统计算机视觉技术开发并实现了一个车道检测系统,旨在创建一种高效、低计算成本的解决方案,能够实时运行并在多种道路条件下工作。所采用的方法基于摄像头校准、透视变换以及色彩和梯度分割,在正常驾驶条件下准确检测车道的效果显著,白天场景的准确率超过 90%。Lane parting cautioning 是先进驾驶辅助系统的关键要素。系统。过去十年里,Significant growth 已在车道检测和 tracking 取得显著增长。基于视觉的方法仍然是车道检测最简单的方法之一。然而,尽管该领域已取得相当进展,由于车道环境的巨大变异性,仍有改进空间。