发表学术论文网

考虑跨层特征融合的抛洒风险车辆检测方法

  面对货运车辆抛洒风险检测的难题,针对现有方法存在的抛洒风险关键特征提取能力不足、特征跨层融合不充分的问题,提出面向货运车辆的抛洒风险检测方法(SRVDNet)。骨干网络引入大核可选择性感受野机制,增强网络对货运车辆抛洒风险特征的学习能力。颈部网络引入聚集-分发特征融合机制,实现特征跨层融合,为检测头提供丰富的车厢类型、篷布边缘细节纹理、货物轮廓形状等信息。采用真实的高速公路货运车辆数据集,验证所提方法的效果。实验结果表明,SRVDNet 表现出更优的性能,检测精度达到81.5%,与YOLOv5、YOLOv6、YOLOv8、RT-DETR、PP-YOLOE、YOLOv9 等车辆检测SOTA 方法相比,mAP@0.5 分别提升了3.70%、3.09%、2.86%、1.37%、1.41%、2.00%,且模型参数量相对较小,检测速度较高,有效提升了在货物装载不规则、少量货物和满载货物等场景下的抛洒风险识别能力,有助于抛洒物的源头治理,增强高速公路安全风险的识别预警能力。

  关键词:智能交通;抛洒风险检测;目标检测;车辆检测;跨层特征融合

  论文《考虑跨层特征融合的抛洒风险车辆检测方法》发表在《浙江大学学报(工学版)》,版权归《浙江大学学报(工学版)》所有。本文来自网络平台,仅供参考。

抛洒风险车辆检测框图

  引言

  高速公路是交通物流的大动脉,繁忙路段货运车辆占比已达40%。近年来,货物遗撒散落导致的直接事故和二次事故逐年增多,已成为威胁高速公路通行效率和行车安全的突出隐患。国内外学者基于目标检测方法,对抛洒物的检测展开了积极探索。现有研究集中于抛洒事件发生后的被动检测,忽视了抛洒风险的事前发现,无法从源头上破解抛洒难题,行业亟需可主动识别高抛洒风险车辆的智能感知方法。

  目前针对车辆类物体的检测,主要采用基于YOLO(You Only Look Once)的目标检测方法。例如,针对道路车辆遮挡与小目标车辆漏检率高的问题,马永杰等提出改进的YOLOv3 车辆检测方法。为了兼顾算法检测速度和准确性的需求,陈志军等利用GhostNet 加速YOLOv4 的特征提取,提出基于轻量化网络和注意力机制的车辆目标识别方法。考虑风险预警的时效性要求,王博等选择基于YOLOv5 构建道路监控视角下的车辆目标检测模型。高速公路货运车辆的货箱形式各异、货物形式多样,货运车辆抛洒风险检测仍存在较大挑战。现有的车辆检测方法忽略了货车车厢的局部细节信息,导致对货车车厢类型、篷布遮盖、货物形状等抛洒风险关键特征的学习和关注不足,缺乏足够的判别信息进行准确识别,难以完成抛洒风险车辆检测任务。

  近年来,YOLOv8 和YOLOv9 这些最新的YOLO 系列算法解决了深层网络存在的信息瓶颈问题,提高了模型的深层特征学习能力,有助于捕捉目标的关键信息。YOLO 系列算法的特征融合方式只能逐层进行,不能跨层交互特征,当区分装载少量货物的货车和空车时,缺少来自深层特征的语义信息,易造成装载少量货物的货车漏检。此外,浅层的纹理信息提取不足,容易导致满载货物与货车篷布混淆。

  面对货运车辆抛洒风险检测的难题,针对现有方法存在的关键抛洒风险特征提取能力不足、特征跨层融合不充分问题,提出面向货运车辆的抛洒风险检测方法(spillage risk vehicles detection network, SRVDNet)。骨干网络引入大核可选择性感受野机制,增强网络对货运车辆抛洒风险特征的学习能力。颈部网络引入聚集-分发特征融合机制,解决特征融合过程中抛洒风险特征丢失的问题,为检测头提供有助于抛洒风险判断的深层语义特征和浅层细节纹理特征。该方法提升了模型在货物装载不规则、少量货物和满载货物场景下的抛洒风险识别能力,有效提高了抛洒风险车辆的检测精度,有助于抛洒物的源头治理,提升高速公路安全风险的识别预警能力。

  1 抛洒风险车辆检测方法的框架

  提出的抛洒风险车辆检测方法的总体框架如图1 所示。该方法可以复用现有高速公路监控摄像头的实时视频流作为输入数据,输出为抛洒风险车辆检测类别,分别为无风险车辆Truck_R0、低风险车辆Truck_R1、高风险车辆Truck_R2。

  框架的核心为提出的SRVDNet 算法,可以实现对具有抛洒风险的非厢式货车的准确检测,降低了对规范装载车辆和空载车辆的误检率。

  2 SRVDNet 算法的原理

  提出的抛洒风险车辆检测网络SRVDNet 结构原理如图2 所示,主要由骨干网络(backbone)、颈部网络(neck)、头部网络(head)和辅助可逆分支(auxiliary reversible branch, ARB)4 部分构成。

  骨干网络主要使用RepCSPEALN4 模块进行特征提取,利用卷积神经网络进行下采样,(S_1)、(S_2)、(S_3)、(S_4) 为特征提取后的不同尺度特征图。颈部网络负责对提取到的特征进行跨层融合。主分支头部网络拥有3 个检测头,负责抛洒风险车辆的定位和分类。辅助可逆分支与骨干网络的结构类似,头部输出额外的预测结果,与主分支的预测结果一起参与损失计算和反向传播,辅助生成有效的梯度,提供额外的深度监督信号更新网络参数,提升模型的检测能力。辅助分支只用于模型训练阶段,在推理阶段可去除该分支,大幅减少了参数量,提高了检测速度。

  2.1 骨干网络

  针对现有方法对车厢类型、篷布遮盖、货物形状等关键抛洒风险特征提取能力不足的问题,提出的SRVDNet 在骨干网络引入大核可选择性感受野机制(large separable kernel, LSK)作为骨干网络的最顶层,将传统卷积分解为具有大卷积核且不断扩张的深度卷积,可以根据不同的货车目标动态调整特征提取骨干的感受野。动态感受野由空间选择机制实现,允许模型针对空间上不规则货物的货车目标自适应地选择不同大小的核并调整感受野,从不同尺度的大卷积核中对特征映射进行有效加权和空间融合,将模型注意力集中于存在抛洒风险的货车车厢部分,具体如图3 所示。

  采用LSK 将传统卷积层的二维卷积核分解为级联的水平和垂直深度可变卷积核。可变卷积核具有递增的卷积核大小和不同的扩张率,在不增加计算成本的情况下,可以覆盖更大的感受野,捕捉货箱和货物的长距离特征依赖关系,提取更丰富的抛洒风险特征,如下所示:

  [U_{0}=X, U_{i+1}=F_{i}^{dw}left(U_{i} ight)]

  式中:X 为输入图像,(F_{i}^{dw}) 表示核为(k_i) 且空洞为(d_i) 的深度可分离卷积,(U_i) 为解耦后的大卷积核序列特征。

  为了实现不同空间描述符的信息交互,将2 个通道的平均池化(P_{avg}) 和最大池化(P_{max}) 提取空间特征( ilde{U})。为了强化网络更关注于货车抛洒风险最相关的空间上下文区域,采用空间选择机制,将来自不同感受野的卷积核特征进行拼接,应用通道级为了实现不同空间描述符的信息交互,将2 个通道的池化特征转换为N 个空间注意力特征图,如下所示:

  [hat{S A}=F^{2 o N}left(left[P_{avg }left[ ilde{U_{1}}, cdots, ilde{U}_{i} ight] ; P_{max }left[ ilde{U_{1}}, cdots, ilde{U}_{i} ight] ight] ight)]

  式中:(widehat{SA}) 为空间注意力特征图,(F^{2 o N}) 为空间注意力图转换卷积层,(P_{avg})、(P_{max}) 分别表示平均池化和最大池化,( ilde{U}) 为空间特征。

  每个空间注意力特征图(widehat{SA}) 经过Sigmoid 激活函数(sigma),可得解耦的大卷积核所对应的独立空间选择掩膜。将解耦后的大卷积核序列特征( ilde{U}_{i}) 与对应的空间选择掩膜进行加权累加,通过卷积层f进行融合,获得注意力特征。将输入X 与注意力特征逐元素点乘,获得嵌入注意力的特征图(L_{10})。

  [L_{10}=X × fleft(sum_{i=1}^{N}left(sigmaleft(hat{S A}_{i} ight) cdot ilde{U}_{i} ight) ight)]

  式中:(L_{10}) 为网络第10 层的输出,f 表示融合卷积,(sigma) 为Sigmoid 激活函数。将(L_{10}) 作为下一阶段颈部网络的输入。

  2.2 颈部网络

  不同大小目标信息存在于不同尺度的特征图中,大尺度特征提取低维细节信息和小目标位置,小尺度特征包含高维抽象信息和大目标位置。现有车辆目标检测SOTA 模型的颈部网络所采用的传统特征金字塔特征融合方式仅支持相邻逐层特征融合或跨层间接递归融合,无法实现跨层特征直接融合,导致不同大小的目标信息容易在融合过程中丢失,降低模型对装载少量货物的货车和空车的判别性,造成装载少量货物的抛洒风险货车漏检。原因在于少量货物的视觉元素较少,多层卷积后,货物深层特征的语义信息容易缺失。此外,对于篷布的关键特征提取,容易出现浅层的篷布纹理信息丢失问题,导致满载货物形式车辆与篷布覆盖车辆类别混淆,极大地阻碍抛洒风险的准确判断。

  提出的SRVDNet 的颈部网络在RepNCSPELAN4 模块的基础上,引入聚集-分发特征融合机制(gather-and-distribute, GD),具体包括Low-GD 模块和High-GD 模块,增强跨层级特征的对齐、融合及信息注入,提升多尺度特征融合的能力,有助于不同装载量、不同货物形式下抛洒风险车辆的准确检测,具体如图4 所示。

  Low_GD 模块主要用于聚合浅层的特征信息,包括低阶特征对齐模块(low-stage feature alignment module, Low_FAM)、低阶特征信息融合模块(low-stage information fusion module, Low_IFM)、低阶特征信息注入模块(low-stage lightweight adjacent layer fusion, Low_LAF)。在Low_FAM 阶段,以(S_3) 特征图为基准,对浅层特征图(S_2)、(S_1) 通过全局平均池化的方式进行下采样,对深层特征图(L_{11}) 采用双线性插值进行上采样,将不同尺度的特征图对齐,拼接得到特征(S_{align})。Low_IFM 阶段将通过Low_FAM 模块对齐后的特征输入到RepVGG 模块中进行特征融合,得到(X_{Low_IFM})。在Low_LAF 低阶特征信息注入阶段,(X_{Low_IFM}) 以注意力点积的形式注入全局信息和局部信息,得到(X_{low_inj_Ri}),经过RepVGG 进行特征提取,得到最终的低阶特征图(R_i),具体公式如下:

  [S_{align }=P_{FAM }left[S_{1}, S_{2}, S_{3}, L_{11} ight]]

  [X_{low _{IFM }}=F_{Conv }left[ F_{Rep_{3}}left[cdots F_{Rep _{1}}left[F_{Conv }left(S_{align } ight) ight] ight] ight]]

  [X_{low_inj_Ri }=Emb_{1}left(X_{low_LAF } ight) cdotleft[ F_{Conv }left(X_{low_IFM } ight) ight] +Emb_{g}left(X_{low_IFM } ight)]

  [R_{i}=F_{Rep }left(X_{low inj R_{i}} ight) ; i=1,2]

  式中:(P_{FAM}) 为对浅层特征图全局平均池化、深层特征图双线性插值上采样及特征图拼接操作;(S_1)、(S_2)、(S_3) 分别为骨干网络中第1、2、3 层RepCSPELAN 的特征;(L_{11}) 为网络中的第11 层特征;(F_{Rep}(cdot)) 表示RepVGG 模块,用于帮助模型学习更丰富的特征表示;(F_{Conv}(cdot)) 表示卷积操作;(Emb_l) 和(Emb_g) 表示本层局部和全局特征嵌入操作;(X_{low_LAF}) 为Low_GD 模块中相邻3 层对齐后的特征图;(X_{low_inj_Ri}) 为嵌入了全局和局部特征的特征图;(R_i) 为最终的输出到High_GD 中的低阶特征。

  High_GD 模块主要负责聚合来自Low_GD 的深层特征和浅层特征。在高阶特征对齐模块(high-stage feature alignment module, High-FAM)中,以(R_1) 为基准,通过全局平均池化,将输入特征降维到统一尺寸并拼接得到(P_{align})。由于High-FAM 输出特征尺寸变小,为了充分融合全局信息,在高阶特征信息融合模块(high-stage information fusion module, High-IFM)中将Low-GD 中的RepVGG 替换成多头注意力(multi-head self-attention, MHSA)模块,得到(X_{high_IFM}) 融合特征。在高阶特征信息注入阶段,高阶特征信息注入模块(high-stage lightweight adjacent layer fusion, High-LAF)为(X_{high_IFM}) 嵌入全局和局部信息,得到(X_{high_inj_Ri})。经过RepVGG 进行特征提取,得到最终的高阶特征图(R_i(i=3,4)),如下所示:

  [P_{align }=P_{avg }left[R_{1} ; R_{2} ; L_{11} ight]]

  [X_{high_IFM }= F_{Conv }left(F_{LN}left(P_{align }+F_{MHSA_{2}}left(P_{align }+F_{MHSA_{1}}left(P_{align } ight) ight) ight) ight)]

  [X_{high_inj_inf_R }= Emb_{1}left(X_{high_LAF } ight) cdotleft[F_{Conv }left(X_{high_IFM } ight) ight]+Emb_{g}left(X_{high_IFM } ight)]

  [R_{i}=F_{Rep }left(X_{high inj R_{i}} ight) ; i=3,4]

  式中:(P_{avg}) 表示全局平均池化和拼接操作,(F_{MHSA}(cdot)) 表示包含多头注意力机制的特征提取模块,(X_{high_LAF}) 为High_GD 模块中相邻2 层对齐后的特征图,(X_{high_inj_Ri}) 为嵌入了全局和局部特征的特征图,(R_i(i=3,4)) 为最终输出的高阶特征。

  通过聚集-分发特征融合机制对图像特征进行低阶特征和高阶特征的跨层融合,既保留了浅层中少量货物小目标信息的高分辨细节纹理特征,也获得了货车车厢、装载形式大中目标的深层语义特征,减少了信息丢失,更有利于模型最后部分的头部网络对货车抛洒风险的判断。

  2.3 头部网络和辅助可逆分支

  主分支头部网络采用解耦头及无锚框设计,采用任务对齐分配技术(正负样本分配)。采用分布焦点损失,结合CIoU 损失作为回归分支的损失函数,将二元交叉熵损失作为分类损失函数,使得分类和回归任务之间具有较高的对齐一致性。头部网络含有3 级检测头,针对不同尺度下的物体特征,分别用于检测大、中、小目标。

  引入辅助可逆分支,采用和主分支相同的检测头,针对反向传播过程中的梯度信息丢失问题,不强制主分支保留完整的原始信息。通过使用辅助可逆分支,生成有效的梯度并更新网络参数,避免了传统深层监督模型在特征融合过程中的语义损失。辅助可逆分支在推理阶段将被移除,不会增加模型推理时间。

  3 实验结果的分析

  3.1 实验数据和实验环境

  实验数据来源于G4202 成都绕城高速-绕西段路侧摄像头在2024 年1 月白天采集的视频图像,图像尺寸为1920×1080。使用Labelme 标注工具进行标注,并转换为COCO 格式,数据集共计2407 张,货运车辆样本有8232 个,包括货车无抛洒风险Truck_R0、货车抛洒低风险Truck_R1、货车抛洒高风险Truck_R2 3 个类别,分别表示抛洒风险等级。各类别的样本量分别为4371、1691、2170,比例为1︰0.4︰0.5,采用mosaic 和mixup 数据增强策略,提高各类别样本的丰富性和均衡性。实验数据以7︰3 的比例划分为训练集和验证集,验证所提的SRVDNet 网络对高速公路抛洒风险车辆的检测效果。

  实验环境的计算机硬件配置如下。模型训练采用Tesla A100 GPU,显存为80 GB,CPU 为Intel(R) Xeon(R) Platinum 8369B CPU@2.90 GHz。模型推理采用NVIDIA GeForce RTX 4060,显存为8 GB,CPU 为Inter(R)Core(TM)i5-12400F,操作系统为Windows11,深度学习框架为PyTorch,使用CUDA11.6、cuDNN8.4.0进行加速。

  训练迭代次数为200,Batch_Size 为16,使用SGD 随机梯度下降法,动量为0.937,学习率为0.01,衰减系数为0.0005。

  考虑准确性和实时性的需求,选用目标检测领域通用的检测指标评价模型性能,包括精确率P(precision)、召回率R(Recall)、(F_1) 值((F_1)-score)、平均精度均值mAP(mean average precision)、权重及每秒帧率v。

  3.2 消融实验

  为了验证SRVDNet 网络中LSK 大核可选择性感受野机制和GD 聚集-分发特征融合机制对抛洒风险车辆检测的有效性,在相同环境、参数配置、数据集上进行消融试验,结果如表1 所示。

  表1 消融试验的结果

  |网络|LSK|GD|P /%|R /%|F1 /%|mAP @0.5 /%|mAP @[0.5:0.95] /%|

  |SRVDNet|-|-|73.02|71.26|72.13|79.50|60.67|

  |SRVDNet|√|-|78.09|72.09|74.97|80.52|61.27|

  |SRVDNet|-|√|74.21|78.65|76.37|80.87|61.25|

  |SRVDNet|√|√|79.04|74.79|76.86|81.50|61.87|

  从表1 可知,在引入LSK 机制后,P、R、(F_1)、mAP@0.5、mAP@[0.5:0.95]指标相对提升了5.07%、0.83%、2.84%、1.02%、0.60%,再加入GD 跨层特征融合机制后,P、R、(F_1)、mAP@0.5、mAP@[0.5:0.95]分别提升了6.02%、3.53%、4.73%、2.00%、1.20%。结果表明,通过引入LSK 机制和GD 跨层特征融合机制,SRVDNet 更加关注货车车厢区域关键的抛洒风险特征,提高了网络对抛洒风险车辆检测的精度。

  如图5 所示为SRVDNet 在引入不同模块下,网络训练损失Loss 和(F_1) 指标的变化曲线。图中,(N_i) 为迭代次数。从图5 可以看出,相较于YOLOv9 基线模型,引入的LSK 注意力机制和GD 特征融合机制能够有效地帮助模型拟合,增强抛洒风险车辆的检测能力。本文提出的SRVDNet 网络Loss 更低,(F_1) 更高,验证了LSK 大核可选择性感受野机制和GD 聚集-分发特征融合机制的有效性。

  3.3 对比实验

  为了验证SRVDNet 的性能优势,选取目标检测领域最新的SOTA 算法展开对比实验。所有方法均采用随机初始化参数的方式开始训练,从头学习抛洒风险车辆的检测能力,保证对比实验的公平性和有效性。

  表2 中,S 为模型大小。从表2 可知,对于常用的mAP@0.5 指标,SRVDNet 较基于YOLOv5、YOLOv6 的车辆检测SOTA 方法分别提升了3.70%、3.09%,较基于YOLOv8、RT-DETR、PP-YOLOE、YOLOv9 等目标检测领域的最新SOTA 方法提升了2.86%、1.37%、1.41%、2.00%。对于更严格的mAP@[0.5:0.95]指标,SRVDNet 较基于YOLOv5、YOLOv6 的车辆检测SOTA 方法,分别提升了3.72%、3.53%,较基于YOLOv8、RT-DETR、PP-YOLOE、YOLOv9 等目标检测领域的最新SOTA 方法,提升了3.67%、1.83%、1.71%、1.20%。模型参数量相对较小,检测速度较高,达到69 帧/s,满足实时性检测的要求。

  表2 不同算法在抛洒风险车辆数据集中的实验结果对比

  |算法|mAP @0.5 /%|mAP @[0.5:0.95] /%|v /( 帧·s−1)|S /MB|

  |YOLOv5|77.80|58.15|67|83.5|

  |YOLOv6|78.41|58.34|73|101.6|

  |YOLOv8|78.64|58.20|67|83.5|

  |RT-DETR|80.13|60.04|28|163.6|

  |PP-YOLOE|80.09|60.16|33|203.2|

  |YOLOv9|79.50|60.67|81|60.3|

  |SRVDNet|81.50|61.87|69|62.7|

  与现有方法相比,所提的SRVDNet 支持跨层特征融合交互,多层卷积后仍有效保留浅层的小目标少量货物视觉信息、浅层的篷布纹理信息以及货车车厢形式、装载形式的深层语义特征,提升了模型对满载货物形式车辆与篷布覆盖车辆、装载少量货物车辆和空车等容易混淆类别的判别准确性。

  3.4 实验结果可视化对比

  为了直观展示所提SRVDNet 模型对高速公路抛洒风险车辆检测的提升效果,将实验结果进行可视化对比。

  如图6(a)所示,YOLOv8 在面对装载形式多样且不规则的复杂场景货运车辆时,将满载不规则货物货车(高风险Truck_R2)漏检。如图6(b)所示,YOLOv9 易将满载不规则货物货车(高风险Truck_R2)误检为空车(无风险Truck_R0)或覆盖篷布货车(低风险Truck_R1)。如图6(c)所示,利用SRVDNet 能够准确检测出风险车辆。

  如图7 所示,当面对少量货物这类小目标场景时,YOLOv8 和YOLOv9 均容易将高风险装载不规则货物货车(Truck_R2)误检为无风险空车(Truck_R0),利用本文算法仍能够准确检测。

  如图8 所示,面对满载场景时,YOLOv8 和YOLOv9 容易将满载货物货车(高风险Truck_R2)误检为覆盖篷布货车(低风险Truck_R1)或空车(无风险Truck_R0),利用本文算法仍能够准确检测。

  通过实验对比验证了所提SRVDNet 对车厢类型、篷布遮盖、货物形状等关键抛洒风险特征较强的提取能力以及跨层特征融合交互机制的有效性,提升了模型对不规则货物、少量与满载货物、覆盖篷布与空车等容易混淆风险类别的判别准确性。

  3.5 特征图的可视化分析

  为了展示SRVDNet 对车厢类型、篷布遮盖、货物形状等关键抛洒风险特征的学习能力,将SRVDNet 学习到的注意力特征与目前最新的SOTA 目标检测算法YOLOv9 所学习的注意力特征进行可视化对比。

  如图9(a)所示为数据原始输入,为典型的高速路货车非厢式运输场景。如图9(b)所示为对应数据输入经过YOLOv9 处理,在颈部网络输出的注意力特征图。如图9(c)所示为对应数据输入经过SRVDNet 处理,在颈部网络输出的注意力特征图。对比注意力特征图可知,相较于YOLOv9,SRVDNet 网络对于货运车辆的注意力激活区域(矩形框中的高亮区域)更多,且覆盖货运车辆的货箱范围更广,更有助于网络提取车厢类型、篷布覆盖、货物类型、货物装载量等关键特征。SRVDNet 在近景目标、远景目标、车辆遮挡等高速常见的场景环境,仍保持较高的特征提取能力。

  在骨干网络引入大核可选择性感受野机制,增强了网络对货运车辆抛洒风险特征的学习能力,可以针对空间上不规则货物的货车目标自适应地选择不同大小的卷积核动态调整感受野,将模型注意力集中于存在抛洒风险的货车车厢部分。此外,聚集-分发特征融合机制在颈部网络的引入,解决了浅层网络特征和深层网络特征融合过程中货运抛洒风险关键特征丢失的问题,可以为检测头提供更丰富的货物形状轮廓、装载形式、篷布边缘细节纹理等信息。

  4 结论

  (1) 大核可选择性感受野机制在骨干网络的引入,增强了网络对货运车辆抛洒风险特征的学习能力。聚集-分发特征融合机制在颈部网络的引入,解决了特征跨层融合不充分的问题,避免了特征融合过程中货运车辆关键抛洒风险特征的丢失。

  (2) 对比实验结果表明,所提方法具有明显的精度和效率优势,mAP@0.5 精度达到81.50%,mAP@[0.5:0.95]精度达到61.87%,检测速度为69 帧/s,模型参数量为62.7 MB。

  (3) 对于常用的mAP@0.5 指标,相较于基于YOLOv5、YOLOv6 车辆检测SOTA 方法,分别提升了3.70%、3.09%,较基于YOLOv8、RT-DETR、PP-YOLOE、YOLOv9 等目标检测领域的最新SOTA 方法提升了2.86%、1.37%、1.41%、2.00%。对于更严格的mAP@[0.5:0.95]指标,较基于YOLOv5、YOLOv6 的车辆检测SOTA 方法分别提升了3.72%、3.53%,较基于YOLOv8、RT-DETR、PP-YOLOE、YOLOv9 等目标检测领域的最新SOTA 方法提升了3.67%、1.83%、1.71%、1.20%。模型大小保持较小,检测速度较高。

  (4) 有效提高模型在货物装载不规则、少量货物和满载货物场景下的抛洒风险识别能力,在近景目标、远景目标、车辆遮挡等高速常见的场景环境下仍然保持较好的检测效果。

  参考文献

  [1] 蒋来. 浅谈高速公路抛洒物危害与对策[J]. 道路交通管理, 2021, 39(4): 36–37.

  [2] 项新建, 胡海斌, 姚佳娜, 等. 一种基于物影匹配算法的道路小目标跟踪方法[J]. 交通运输系统工程与信息, 2022, 22(6): 85–94.

  [3] 郭恩强, 符锌砂. 基于特征相似性学习的抛洒物检测方法[J]. 华南理工大学学报: 自然科学版, 2023, 51(6): 30–41.

  [4] CHEN G, CHEN K, ZHANG L J, et al. VCANet: vanishingpoint-guided context-aware network for small road object detection [J]. Automotive Innovation, 2021, 4(4): 400–412.

  [5] 曹行健, 张志涛, 孔彦赞, 等. 面向智慧交通的图像处理与边缘计算[J]. 中国图像图形学报, 2021, 27(6): 1743–1766.

  [6] 邵延华, 张铎, 楚红雨, 等. 基于深度学习的YOLO 目标检测综述[J]. 电子与信息学报, 2022, 44(10): 3697–3705.

  [7] 王潇, 李子琦, 高涛, 等. 基于无损跨尺度特征融合的交通目标检测算法[J]. 中国公路学报, 2023, 36(9): 315–325.

  [8] WANG H, YU Y, CAI Y, et al. Soft-weighted-average ensemble vehicle detection method based on single-stage and two-stage deep learning models [J]. IEEE Transactions on Intelligent Vehicles, 2020, 6(1): 100–109.

  [9] WANG Z, ZHAN J, DUAN C, et al. A review of vehicle detection techniques for intelligent vehicles [J]. IEEE Transactions on Neural Networks and Learning Systems, 2023, 34(8): 3811–3831.

  [10] 张念, 张亮. 基于深度学习的公路货车车型识别[J]. 交通运输工程学报, 2023, 23(1): 268–279.

  [11] 马永杰, 马芸婷, 程时升, 等. 基于改进 YOLOv3 模型与 DeepSORT 算法的道路车辆检测方法[J]. 交通运输工程学报, 2021, 21(2): 222–231.

  [12] 陈志军, 胡军楠, 冷姚, 等. 基于轻量化网络和注意力机制的智能车快速目标识别方法[J]. 交通运输系统工程与信息, 2022, 22(6): 105–113.

  [13] 王博, 刘昌赫, 张驰, 等. 基于道路监控的高速公路作业区碰撞风险预警[J]. 浙江大学学报: 工学版, 2024, 58(6): 1–12.

  [14] LIU W, ZHOU B, WANG Z, et al. FPPNet: a fixed-perspectiveperception module for small object detection based on background difference [J]. IEEE Sensors Journal, 2023, 23(10): 11057–11069.

  [15] 刘小波, 肖肖, 王凌, 等. 基于无锚框的目标检测方法及其在复杂场景下的应用进展[J]. 自动化学报, 2023, 49(7): 1369–1392.

  [16] WANG H, LIU C, CAI Y, et al. YOLOv8-QSD: an improved small object detection algorithm for autonomous vehicles based on YOLOv8 [J]. IEEE Transactions on Instrumentation and Measurement, 2024, 24(73): 1–16.

  [17] WANG C Y, YEH I H, LIAO H Y M. Yolov9: learning what you want to learn using programmable gradient information [C]//European Conference on Computer Vision. Milan: [s. n.], 2024: 1−21.

  [18] SHI Y, LI S, LIU Z, et al. MTP-YOLO: you only look once based maritime tiny person detector for emergency rescue [J]. Journal of Marine Science and Engineering, 2024, 12(4): 669–675.

  [19] 李立, 平振东, 徐志刚, 等. 高速公路行车风险路侧感知系统的设备优化布设[J]. 浙江大学学报: 工学版, 2023, 57(6): 1137–1146.

  [20] LI Y, HOU Q, ZHENG Z, et al. Large selective kernel network for remote sensing object detection. [C]// Proceedings of the IEEE/CVF International Conference on Computer Vision. Paris: IEEE, 2023: 16794-16805.

  [21] WANG C, HE W, NIE Y, et al. Gold-YOLO: efficient object detector via gather-and-distribute mechanism [J]. Advances in Neural Information Processing Systems, 2024, 24(36): 1–19.

  [22] CHEN W, LUO J, ZHANG F, et al. A review of object detection: datasets, performance evaluation, architecture, applications and current trends [J]. Multimedia Tools and Applications, 2024, 24(83): 1–59.

  [23] ZHAO Y, LV W, XU S, et al. Detrs beat yolos on real-time object detection [C]// Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition. Seattle: IEEE, 2024: 16965-16974.

查阅更多的理工论文文章
热门推荐

微生物应用相关论文投稿

河北省高级经济师课题申报要点介绍

论文怎么写基本结构

上海高级职称评审论文必须一作吗

软著能代替论文吗

期刊约稿是什么意思

论文拒稿后申诉能成功吗

核心期刊书评能跟核心论文一样作为职称材料吗

晋升副高论文版面字数要求

著作的副主编与中文核心期刊的第二作者哪个职称加分多

论文投稿系统中推荐审稿人可以不填吗

申请书号要准备什么材料

职称与论文专题
论文发表指导