Loading [MathJax]/jax/element/mml/optable/MathOperators.js
高级搜索

留言板

尊敬的读者、作者、审稿人, 关于本刊的投稿、审稿、编辑和出版的任何问题, 您可以本页添加留言。我们将尽快给您答复。谢谢您的支持!

姓名
邮箱
手机号码
标题
留言内容
验证码

CFS-YOLO:一种利用粗细粒度搜索与焦点调制的早期火灾检测方法

方贤进 姜雪凤 徐留权 方仲毅

方贤进, 姜雪凤, 徐留权, 方仲毅. CFS-YOLO:一种利用粗细粒度搜索与焦点调制的早期火灾检测方法[J]. 电子与信息学报. doi: 10.11999/JEIT240928
引用本文: 方贤进, 姜雪凤, 徐留权, 方仲毅. CFS-YOLO:一种利用粗细粒度搜索与焦点调制的早期火灾检测方法[J]. 电子与信息学报. doi: 10.11999/JEIT240928
FANG Xianjin, JIANG Xuefeng, XU Liuquan, FANG Zhongyi. CFS-YOLO: An Early Fire Detection Method via Coarse and Fine Grain Search and Focus Modulation[J]. Journal of Electronics & Information Technology. doi: 10.11999/JEIT240928
Citation: FANG Xianjin, JIANG Xuefeng, XU Liuquan, FANG Zhongyi. CFS-YOLO: An Early Fire Detection Method via Coarse and Fine Grain Search and Focus Modulation[J]. Journal of Electronics & Information Technology. doi: 10.11999/JEIT240928

CFS-YOLO:一种利用粗细粒度搜索与焦点调制的早期火灾检测方法

doi: 10.11999/JEIT240928
基金项目: 安徽高校与合肥综合性国家科学中心人工智能研究院协同创新项目(GXXT-2021-006)
详细信息
    作者简介:

    方贤进:男,教授,研究方向为网络与信息安全,智能计算,入侵检测系统,隐私保护,人工智能安全

    姜雪凤:女,硕士生,研究方向为目标检测

    徐留权:男,硕士生,研究方向为网络安全

    方仲毅:男,研究方向为计算机视觉与模式识别

    通讯作者:

    方仲毅 damonfang1998@qq.com

  • 中图分类号: TP391.41

CFS-YOLO: An Early Fire Detection Method via Coarse and Fine Grain Search and Focus Modulation

Funds: The Collaborative Innovation Project of Anhui Universities and the Artificial Intelligence Research Institute of Hefei Comprehensive National Science Center (GXXT-2021-006)
  • 摘要: 早期阶段火灾的目标较小,且易受到遮挡、类火物体的干扰。Faster RCNN, YOLO等火灾检测模型因参数量过大导致推理速度较慢,无法满足实时检测;早期火灾边缘和颜色特征在模型中丢失,造成检测精度较低。针对上述问题,该文提出了一种粗细粒度搜索与焦点调制的早期阶段火灾识别模型CFS-YOLO。通过粗粒度搜索优化特征提取网络,最大化提高推理速度,细粒度搜索用于获取早期火灾的边缘和颜色信息,避免特征信息丢失。采用焦点调制注意力机制,精准地处理关键信息,有效减少干扰。引入一种新型损失函数ShapeIoU,以进一步提高模型收敛速度和检测准确性。在真实火灾场景数据集下的实验结果表明,CFS-YOLO的检测精度和召回率分别达到了98.23%和98.76%。相较于基准模型,所提出的CFS-YOLO参数量降低14.7M,精度、召回率和F1分别提高13.33% , 4.96%和9.36%,FPS达到75帧,验证了CFS-YOLO在满足高精度的同时,达到了较高的推理速度,实现了实时检测。与一系列主流模型相比,该文模型的检测精度和速度均表现出优异性能。
  • 火灾是一种常见的灾害,由于其突发性和危险性的特点,往往会导致严重的人员伤亡和财产损失。早期火灾目标检测是一项在图像或视频中及时检测火灾迹象的复杂任务,在民用建筑、工业设施以及公共场所的安全管理等方面发挥着至关重要的作用。有效地识别早期火灾现象,不仅可以迅速启动灭火措施,还能为人员疏散争取宝贵时间。因此,开发高效的早期火灾检测系统显得尤为重要。

    传统的火灾检测方法主要依赖于烟雾探测器、温度传感器等物理设备[13],并且需要接近火焰或烟雾才能产生警报,对于距离报警器较远的开放空间发生的火灾,无法判断火灾的发生且不能提供火灾位置,导致错过最佳的火灾抢救时间,在响应速度和准确性上存在局限性。

    近年来,随着计算机视觉和深度学习的发展,火灾目标检测[46]逐渐成为研究热点。通过摄像头等图像采集设备,结合目标检测算法,早期火灾检测系统可以监测环境变化,自动检测火灾迹象,从而提高检测的准确性和响应速度。目标检测方法主要分为两种:Two-Stage目标检测和One-Stage目标检测。Two-Stage目标检测方法进行特征提取后生成候选区域,再基于候选区域进行分类与回归。以R-CNN[7], Fast R-CNN[8], Faster R-CNN[9]为代表。这类算法的缺点是,候选区域生成和边界框分类与回归两个步骤导致计算量大,推理速度较慢,无法满足实时检测的需求,并且对于环境干扰较为敏感,复杂场景下的候选区域的质量会受到影响。One-Stage目标检测算法进行特征提取后直接进行边界框分类与回归。以YOLO[10], SSD[11]为代表,这类算法因其高效的性能成为目标检测领域一个重要的研究方向。YOLOv8作为高效的目标检测算法,为早期火灾实时检测提供新的可能性。研究者在数据集构建、模型优化和特征提取等方面进行了探索与改进。虽然在一定程度上提高了火灾检测的性能,但由于模型结构复杂需要较多的计算资源和时间进行推理,降低了实时性能。早期火焰和烟雾目标较小,易受到遮挡、光干扰和类火物体因素的影响,同时经过特征提取网络多次下采样使得分辨率变小,火灾的边缘和颜色特征模糊或消失,导致检测精度较低。

    针对上述问题,本文提出一种基于粗细粒度搜索与焦点调制改进YOLOv8的早期阶段火灾检测算法CFS-YOLO。粗细粒度搜索用于快速确定网络架构,以提高模型的推理速度,并且有效的捕捉早期火灾的边缘和颜色信息,避免特征信息丢失。通过引入焦点调制注意力机制,本文旨在提高YOLOv8模型的检测速度和检测准确性,以及减少复杂场景和干扰物体的影响。同时ShapeIoU损失函数的引入,以提高模型的收敛速度。通过大量的实验验证了CFS-YOLO早期火灾检测模型的优异性能。

    本文的主要贡献如下:

    (1) 为提高网络的推理速度和检测精度,本文利用粗细粒度搜索来优化高效灵活的UIB模块。通过粗粒度搜索快速确定UIB模型结构,并且在不同的网络部分实现权重共享,有效减少模型的复杂度,以最大化提高推理速度。细粒度搜索通过分析局部特征,提升了模型对于火灾图像边缘和颜色特征的提取能力,从而提高了早期火灾的检测精度。

    (2) 针对复杂场景及干扰物体的影响,本文采用一种焦点调制注意力机制(Focus-modulated attention mechanism),通过自适应学习,增强关键特征的显著性。同时捕捉图像中的长距离依赖和整合上下文信息,实现信息的加权,增强模型对于复杂场景及干扰的鲁棒性,进而提高了模型的检测精度。

    (3) 为考虑Anchor形状和角度的影响,模型引入了ShapeIoU损失函数。该损失函数在原CIoU损失函数的基础上增加了几何约束。实验表明,这种设计使得边界框的回归能够更快的收敛到最优解,从而节约了模型的推理时间。

    在火灾检测方面,为提高模型的检测性能,研究人员开展了大量的研究。本节将从传统火灾检测方法和深度学习火灾检测方法出发,对相关工作进行详细的描述。传统的火灾检测基于图像处理技术和机器学习检测方法,其中比较常用的方法为聚类[1214]、特征提取和分类[1517],但这种方法依赖于人为设计的特征提取方法,在特征选择的主观性和复杂性方面受限,难以有效的捕捉早期火灾的多样性变化。而深度学习的火灾检测方法通过自动特征提取方法,避免了传统火灾检测人为设计特征提取的缺陷,在火灾检测领域得到了显著的进展[1820]

    目前,基于深度学习的火灾目标检测方法分为Two-Stage目标检测和One-Stage目标检测。Two-Stage目标检测通过区域提议和边界框分类与回归两个阶段来提高检测的准确性与鲁棒性。近年来,随着深度学习技术的热潮,研究者们不断改进和优化Two-Stage目标检测方法,以满足火灾检测的需求。例如,HUANG等人[21]提出利用2维Haar变换提取图像中的光谱特征,将其输出到不同的CNN层,降低了火灾检测的漏报与误报。DIMITROPOULOS等人[15]使用基于非参数模型分析候选区域,利用各种空间特征对火灾行为进行建模,同时利用线性动力系统对候选区域进行动态纹理分析,减少与火相似的物体引起的误报。ZHANG等人[22]通过提出一种用于小目标森林火灾检测的多尺度特征提取模型,使用Resnet50代替VGG-16,将特征图输入到特征金字塔中用于获取多尺度特征。同时在区域建议网络中添加PAM注意力机制,提高了小目标森林火灾检测的精度。CHAO等人[23]利用颜色引导锚定策略和全局信息引导策略用于改进Faster R-CNN,以引导的方式进行火灾检测,解决了颜色上与火焰相似物体的干扰。CHEKNANE等人[24]基于迁移学习构建混合特征提取器,将其作为特征提取网络,在开放空间中的火灾检测表现出较好的性能。赵杰等人[25]提出了一种双阶段多层次特征提取融合结构,将传统图像处理方法与神经网络技术结合起来,通过由粗到细的特征提取过程显著改善了火灾检测性能,然而在光干扰和夜间环境中的检测精度依然有所不足,体现了这一技术在复杂条件下的局限性。Two-Stage火灾目标检测方法虽然在检测精度和鲁棒性方面有显著优势,但计算复杂度较高,处理速度较慢,不能满足早期火灾实时检测的需求。

    One-Stage目标检测是一种新兴的目标检测框架,以YOLO为代表,能够同时进行物体位置回归和类别分类,进行端到端的处理,推理速度较快。近几年来, One-Stage目标检测方法在火灾检测得到了快速发展。REN等人[26]设计了一种基于YOLO的FCLGYOLO模型。该模型通过构建特征不变性和协方差约束、局部引导的全局模块,增强了火灾对象的可区分性和显著性。QADIR等人[27]提出一种改进YOLOv5的轻量级单级网络,通过改进瓶颈跨级模块和金字塔注意力网络,增强了特征提取能力并缩短了火灾检测的时间。邓力等人[28]通过集成SlimNeck和切片辅助推理方法,优化YOLOv8的颈部和推理框架,有效提高了火灾的检测效率。WANG等人[29]开发了多维特征交互的双路径网络DPMNet,该网络集成粗细粒度并行路径、自适应融合模块和上下文池化瓶颈,在遥感森林火灾中具有较高的准确率。PATEL等人[30]提出一种新的联邦学习框架FL,其包含3种不同的FL算法,即联邦平均、联邦自适应距估计和联邦邻端。解决了智能家居边缘火灾烟雾快速检测的问题。曹康壮等人[31]利用轻量化的ShuffleNetv2网络实现图像特征的轻量化提取,并添加了Shuffle Attention注意力机制,在嵌入式设备上实现了高效的火灾检测。LI等人[32]采用多尺度特征提取机制获取了丰富的空间细节,利用隐式深度监督机制密集的跳转连接加强信息之间的流动。同时采用通道注意力机制,赋予不同特征图不同的权重,达到了95.3%的检测准确率。ALMEIDA等人[33]提出一种基于RGB图像的EdgeFireSmoke模型,与边缘设备相结合。通过CNN进行图像处理,可达到95.77%的F1分数。

    尽管早期火灾检测的研究已经取得了一定的成果,但仍然面临一些挑战。例如,小目标火焰和烟雾的特征不明显,难以捕捉,并且容易被背景噪声所掩盖,导致漏检率和误报率较高。由于火灾响应时间的关键性,火灾检测必须能够快速处理信息并做出响应,这对计算效率和模型性能提出了更高的要求。为了解决这些问题,本文提出了一种基于粗细粒度搜索与焦点调制的早期火灾检测方法,旨在提高小目标火焰和烟雾的检测准确性以及实时检测性能。

    本文提出的CFS-YOLO模型的总体框架如图1所示。在CFS-YOLO模型中,首先,为了提升模型的检测效率,引入了粗细粒度搜索策略来优化轻量化结构UIB模块,从而增强模型在实时火灾场景中小目标边缘和颜色特征的提取能力,实现高效实时的火灾图像特征提取。其次,在特征提取网络的末端,集成焦点调制注意力机制,通过自适应学习,使得模型能聚焦于输入图像中的重要区域,从而显著提高了检测的准确性。最后,为了进一步改善边界框的回归效果,引入了ShapeIoU损失函数,该函数在CIoU损失的基础上增加了新的几何约束,促使边界框回归能够快速收敛到最优解,节约了模型的推理时间。

    图 1  CFS-YOLO模型结构示意图

    YOLOv8特征提取网络结构庞大并且复杂,融合大量层和参数,导致在训练与推理过程中计算负荷较大,并且检测精度较低,限制了其在实时火灾检测领域的应用。针对这一问题,CFS-YOLO采用结构简单、参数量较少、计算负担轻的倒瓶颈块UIB作为特征提取网络。UIB具体结构如图2所示,共包含四种可能的实例化方式,其中图2(a)引入两个逐通道卷积,增加了深度卷积的层数,更深的网络通常可以捕捉到高维度的特征,使得模型能够学习到更复杂的特征,在处理复杂和多样化的数据时更加高效。与标准卷积相比,深度卷积的计算成本较低,在保持高性能的同时,节约计算资源;图2(b)在两个逐点卷积之间引入逐通道卷积。逐通道卷积通过扩展通道数,使得模型在输入特征图上获得更高的维度,从而捕捉更丰富的特征,同时在不同的网络深度之间平衡计算复杂度和表征能力;图2(c)在两个逐点卷积前引入逐通道卷积,对输入特征图进行逐通道卷积实现了更有效的空间混合,使得模型能够捕捉到更广泛的空间信息,尤其是在处理复杂图像或场景时,能够更好地理解局部和全局特征;图2(d)是两个1×1逐点卷积的堆叠,能够增强模型的非线性表达能力,提高不同通道之间的信息交互。逐通道卷积的存在与否是神经网络架构搜索(Neural Architecture Search, NAS)优化过程的一部分。通过粗粒度和细粒度搜索,NAS实现了UIB模型架构的有效优化,从而提升了模型的整体性能。

    图 2  倒瓶颈模块UIB结构图

    其中,粗粒度搜索的目标是快速评估不同网络架构的总体设计。采用启发式方法生成候选架构,并根据初步性能进行筛选。具体算法流程见算法1。首先是拓扑结构的调整,将UIB中的可选卷积模块添加为额外的搜索选项,更改模块的排列组合方法,生成多种候选架构。其次是维度调整,在搜索过程中灵活的选择网络结构的特征图维度和卷积核大小,通过扩展或压缩网络的宽度,生成不同的候选架构。在筛选过程中,对候选架构在不同性能指标上的表现进行分析,使用多目标优化的方法,确定 Pareto最优解,保留在精度和效率之间取得平衡的候选框架。同时,采用权重共享的方法,不再为每一层设置单独的权重,在层内部共享通道以及在不同的网络架构之间共享部分权重,提高参数复用。粗粒度搜索通过评估各种设计的整体性能,能够快速获取候选框架。有效提高了学习效率,减少了训练时间。

    表 1  粗粒度搜索
     1: 输入: 候选架构数量 N , 最大训练 epochs 数 E
     2: 输出: 最优候选架构 Abest
     3: SEARCH_SPACE # 初始化候选架构空间
      步骤 1: 使用 NAS 生成候选架构
     4: for i = 1 to N do
     5:  Acandidate ← create_random_architecture() # 生成基础架构
     6:  Acandidate ← adjust_topology(Acandidate) # 调整拓扑结构
     7:  Acandidate ← adjust_dimensions(Acandidate) # 更改输入输出
     通道数
     8:  Acandidate ← flexible_selection(Acandidate)# 选择特征图维度
     和卷积核大小
     9: SEARCH_SPACE.append(Acandidate) # 将候选框架添加到搜
     索空间
     10: end for
      步骤 2:评估每个候选架构
     11: PERFORMANCE_METRIC # 初始化性能指标
     12: for each Aarchitecture ∈ SEARCH_SPACE do
     13:  model ← build_model(Aarchitecture) # 构建模型
     14:  train(model, E) #对模型进行 E 次训练
     15:  performance ← evaluate_model(model) # 评估模型性能
     16:  PERFORMANCE_METRIC.append(performance) # 储
     存性能指标
     17: end for
      步骤 3:执行多目标优化
     18: PARETO_FRONT ← compute_pareto_front(PERFORMANCE_METRIC)
     # 计算架构的 Pareto 最优解
     19: Abest ← select_balanced_architecture(PARETO_FRONT)
     # 选择平衡准确性和效率的最优架构
      步骤 4:权重共享
     20: for each layer in Abest do
     21:  apply_weight_sharing(layer) # 在层内实现权重共享
     22: end for
     23: return Abest # 返回最优候选架构
    下载: 导出CSV 
    | 显示表格

    细粒度搜索侧重于对粗粒度搜索中选定的候选框架进行优化,以提高模型的效率。根据模型在训练过程中的表现,动态的调整学习率、批量大小、正则化系数、以及优化算法等超参数。通过对网络中各个模块进行逐层的分析与调整,例如增加或减少层的数量、调整连接方式等,使得模型加速收敛并适应数据的复杂性,从而优化模块的功能。在细粒度调整过程中,依靠验证集对每次修改后的模型进行评估,确保每次调整均能促进模型性能的提升。NAS的引入消除了对人为设计的缩放规则的依赖,仅将逐通道卷积简单地作为可选搜索项进行添加。粗细粒度搜索通过权重共享有效降低了网络的参数量。这种设计取得了实时空间和通道混合的平衡,以最大程度的提高推理速度。倒瓶颈块的设计有效避免了搜索复杂度的急剧增加。逐通道卷积的加入为每个输入通道单独应用卷积核,使得每个通道可以专注于捕捉细微的边缘和颜色信息。在小目标检测中,颜色信息对于区分不用的目标具有重要的作用,而边缘特征则有助于明确目标的轮廓,有效促进火灾特征的提取。

    SPPF模块难以检测复杂背景中的早期阶段火灾目标,而注意力机制能够帮助模型集中注意力于输入图像中的关键区域。通过学习输入火灾图像中不同部分的权重,模型可以更准确的捕捉关键位置信息,提高模型的检测精度。同时能够降低轻量化特征提取网络对于检测精度的影响。焦点调制注意力机制适用于处理小目标或在复杂背景中的目标检测问题,有助于捕捉图像中的长距离依赖和上下文信息。其结构如图3所示。输入火灾图像首先经过轻量级线性层处理,然后通过层级化的上下文化模块和门控机制选择性将上下文信息聚合到每个查询令牌的调制器。将聚合后的调制器通过仿射变化注入到每个查询令牌中生成输出。具体实现如下:

    图 3  焦点调制注意力机制结构图

    给定输入特征映射X,首先进行轻量化线性处理操作,从而分别得到两个线性特征层q(x)x

    通过将x输入到上下文聚合模块中,进行层次结构上下文化和门控聚合操作捕捉图像中的长距离依赖和上下文信息。

    首先,进行层次结构上下文化,将输入特征映射x投影到一个新的特征空间中,该空间具有一个线性层Z0=fZ(x)RH×W×C 。使用L个具有结构感知能力的深度可分离卷积,以获得不同粒度级别从局部到全局范围提取上下文的层次表示,输出Zl 表示为

    Zl=la(Zl1) (1)

    其中,GeLU表示高斯误差线性激活函数, {\text{Con}}{{\text{v}}_{{\text{dw}}}} 表示进行深度可分离卷积。层次语境化生成L级特征图,在第L级,有效感受野的大小为 {r^l} = 1 + \displaystyle\sum\nolimits_i^{i = 1} {({k^l} - 1)} 远大于卷积核大小 {k^l} 。更大的感受野以更粗的粒度捕获更多的全局上下文关系。为了捕获整个输入的全局上下文关系,在第L级特征映射上应用全局平均池化,由此获得总的(L+1)个特征图,在不同的粒度级别上共同捕获局部和长距离上下文特征。

    其次,通过门控聚合将不同粒度级别的上下文特征浓缩为单个特征向量,即调制器。使用线性层来获得空间和级别感知的权重 {\boldsymbol{G}} = {f_a}({\boldsymbol{X}}) \in {{\boldsymbol{R}}^{H \times W \times (L + 1)}} 。然后,通过元素相乘执行加权和,以获得与输入x大小相同的单个特征映射 {{\boldsymbol{Z}}^{{\text{out}}}}

    {{\boldsymbol{Z}}^{{\text{out}}}} = \sum\limits_{L + 1}^{l = 1} {{{\boldsymbol{G}}^l} \odot {{\boldsymbol{Z}}^l}} (2)

    其中, {{\boldsymbol{G}}^l} \in {{\boldsymbol{R}}^{H \times W \times 1}} 是第 l 级的一个通道。 \odot 表示进行特征聚合。

    所有聚合都是空间聚合。为了建模不同通道之间的关系,使用线性层h(·)获得调制器 {\boldsymbol{M}} = h({{\boldsymbol{Z}}^{{\text{out}}}}) \in {{\boldsymbol{R}}^{H \times W \times C}} 。整体的焦点调制公式见式(3)。

    {y}_{i}=q({x}_{i})\odot h \left({\displaystyle \sum _{L+1}^{l=1}{g}_{i}^{l}}\cdot{z}_{i}^{l}\right) (3)

    在火灾目标检测任务中,损失函数用于度量模型预测结果和真实标签之间的差异。IoU损失函数用于度量预测框与真实框之间的重叠程度。YOLOv8采用CIoU损失函数[34],该函数考虑了真实框(GT)和先验框(Anchor)的距离(D)、形状和角度对于预测框回归的影响,可以准确的衡量真实框与预测框之间的相似性。CIoU的公式为

    {\text{CIoU}} = {\text{IoU}} - \left( {\frac{{{r^2}(b,{b^{{\text{gt}}}})}}{{{c^2}}} + \alpha v} \right) (4)

    其中 \alpha 是权重系数,v用来度量宽高比的一致性, {r^2}(b,{b^{{\text{gt}}}}) 代表真实框与预测框中心点的欧氏距离。其中b代表真实框, {b^{{\text{gt}}}} 代表预测框。c代表能够同时包含真实框与预测框的最小闭包区域的对角线距离。

    \quad {\text{IoU}} = \frac{{b \cap {b^{{\text{gt}}}}}}{{b \cup {b^{{\text{gt}}}}}} (5)
    \quad \alpha = \frac{v}{{(1 - {\text{IoU}}) + v}} (6)
    \quad v = \frac{4}{{{\pi ^2}}}{\left( {\arctan \frac{{{w^{{\text{gt}}}}}}{{{h^{{\text{gt}}}}}} - \arctan \frac{w}{h}} \right)^2} (7)

    CIoU虽然考虑了GT与Anchor的中心点距离和对角线距离,但忽略了Anchor的固有属性(如Anchor的形状和角度)对于火灾检测的影响。CFS-YOLO引入一种关注Anchor自身形状和角度的边界框损失函数ShapeIoU[35]用于解决这一问题,ShapeIoU损失见图4,损失函数公式见式(13)。

    图 4  ShapeIoU损失示意图
    {\text{ww}} = \frac{{2 \times {{\left( {{w^{{\text{gt}}}}} \right)}^s}}}{{{{\left( {{w^{{\text{gt}}}}} \right)}^s} + {{\left( {{h^{{\text{gt}}}}} \right)}^s}}} (8)
    {\text{hh}} = \frac{{2 \times {{\left( {{h^{{\text{gt}}}}} \right)}^s}}}{{{{\left( {{w^{{\text{gt}}}}} \right)}^s} + {{\left( {{h^{{\text{gt}}}}} \right)}^s}}} (9)
    D = {{{\text{hh}} \times {{({x_{\text{c}}} - x_{\text{c}}^{{\text{gt}}})}^2}} / {{{\text{c}}^2}}} + {{{\text{ww}} \times {{({y_{\text{c}}} - y_{\text{c}}^{{\text{gt}}})}^2}} /{{{\text{c}}^2}}} (10)
    \Omega = {\sum\limits_{t = w,h} {\left( {1 - {{\text{e}}^{ - {w_t}}}} \right)} ^\theta },\theta = 4 (11)
    \left. \begin{gathered} {w_w} = {\text{hh}} \times \frac{{\left| {w - {w^{{\text{gt}}}}} \right|}}{{\max \left( {w,{w^{{\text{gt}}}}} \right)}} \\ {w_h} = {\text{ww}} \times \frac{{\left| {h - {h^{{\text{gt}}}}} \right|}}{{\max \left( {h,{h^{{\text{gt}}}}} \right)}} \\ \end{gathered} \right\} (12)

    其中,s是缩放因子,与数据集中目标的大小相关,e是自然常数,c是与数据集相关的常量,ww和hh分别表示水平方向和垂直方向的权重系数,其值与GT的形状有关。

    {\text{ShapeIoU}} = 1 - {\text{IoU}} + D + 0.5 \times \Omega (13)

    ShapeIoU 引入缩放因子,通过在IoU的基础上添加新的几何约束。关注Anchor本身的尺度计算损失,使得模型更好的学习火灾检测任务中的特征关联性,并且快速收敛到最优解。在节约时间的同时,提高检测性能和准确度。

    本文实验在Pytorch框架和python编程语言下完成。硬件配置为Tesla P40 24 GB GPU, Intel Core i5-13600KF和32 GB内存。训练轮数为100,batchsize为8,初始学习率为0.01,动量参数为0.937,权重衰减为0.0005。下面的各部分详细介绍了本文的实验和结果分析。

    该研究使用从真实场景中采集的,并且经过严格合理的规则标注的DFS数据集进行训练和测试实验。为了减少与火焰相似的其他物体而造成的误判情况,引入了一个“other”类别。该类别包括一些与火焰相似但实际上与火焰不同的物体,并且易于被误识别为火灾目标。如车灯、路灯、日光和与烟雾相似的丁达尔效应。其中“other”类涵盖了室内、室外、白天、夜晚、烟雾干扰和光干扰等不同的环境以提高模型的泛化能力,“other”类的代表性图像如图5所示。从图中我们可以看出,在室内白天类中,该数据集包含了不同房间的图片、同一房间中不同物体大小和数量的图片以及不同光照强度的房间图片。在室内夜晚类中,该数据集包含了不同黑暗程度的图片、不同房间的图片、同一房间中不同物体大小和数量的图片。在室外白天类中,该数据集包含了不同场景下的图片、不同场景下与火类似的物体以及不同物体的大小和数量的图片。在室外夜晚类中,该数据集包含了各种场景下夜晚的图片。在烟雾干扰类中,该数据集包含了不同场景下烟雾的干扰图片。在光干扰类中,具有不同光照和反射情况的图片。同时该数据集添加了包含火焰变化信息的火灾视频中的连续帧,用于丰富数据集。本文数据集的数据分布要更复杂,上述情况仅是数据集中的一部分,为了简化篇幅和方便阅读,就不再详述。上述的代表性图片表明了本文使用了不同环境下丰富的多样性数据集,为后续证明模型的泛化能力提供坚实的基础。

    图 5  “ other ”类火灾场景

    本文采用精度(P)、召回率(R)、F1分数、AP (Average Precision)、mAP (mean of Average Precision)和每秒帧率FPS (Frames Per Second)评估指标来评估算法的性能。精度用于衡量算法在所有预测为火灾样本中的正确性。召回率表示算法正确识别火灾样本的能力。F1分数是精度和召回率的调和平均数,每秒帧率表示每秒钟检测的图片数量,用于评估算法的检测速度。AP是单个类别的平均精准度,反映了模型的鲁棒性和泛化能力。mAP计算所有类别的AP平均值。计算公式见式(14)–式(19)。

    P = \frac{{{\text{TP}}}}{{{\text{TP}} + {\text{FP}}}} (14)
    R = \frac{{{\text{TP}}}}{{{\text{TP}} + {\text{FN}}}} (15)
    {\text{F1}} = \frac{{2 \times P \times R}}{{P + R}} (16)
    {\text{FPS}} = \frac{1}{{{\text{Processing time per frame}}}} (17)
    {\text{AP}} = \int\limits_0^1 {P(r){\text{dr}}} (18)
    {\text{mAP}} = \frac{{\displaystyle\sum\limits_{i = 1}^K {{\text{A}}{{\text{P}}_i}} }}{K} (19)

    TP表示实际为正类且被正确预测为正类的样本数;FN表示实际为正类但被预测为负类的样本数;FP表示负类被错误预测为正类的样本数;TN表示实际为负类且被正确预测为负类的样本数,K表示模型检测的类别总数。

    本文将YOLOv8算法作为基准模型,对提出的方法进行一系列的消融实验,用于评估CFS-YOLO的性能表现。本文共进行了8组实验,消融实验结果如表1所示。其中第1组是基准模型的实验结果,在此基础上进行部分结构的改进测试,第8组是CFS-YOLO模型的实验结果。在第2组实验中,将UIB作为特征提取网络时,精度和F1分数分别提高了10.8%和5.15%,FPS提高了17 fps, AP火焰, AP烟雾和mAP分别提高了3.4%, 8.9%和6.15%。这是因为粗细粒度搜索策略的设计使得UIB模块能够从不同粒度中提取火灾特征,从而提升检测精度。同时,这种搜索策略使得模型专注于火灾关键区域,对不相关区域或低置信度区域进行简化处理,显著降低了模型的响应时间,提高了模型的推理速度,能够满足早期火灾的实时检测。在第3组实验中,我们将焦点调制注意力机制应用于主干网络,用于增强模型对于难以检测样本的识别能力。可以看到相较于基准模型,精度、召回率和F1分数分别提高了9.2%, 0.65%和5.14%,AP火焰, AP烟雾和mAP分别提高了8.4%, 3%和5.7%。焦点调制注意力机制通过动态调整注意力权重,使得模型聚焦于火灾的关键特征,减少了复杂场景的干扰,降低了火灾的误检。虽然召回率的提升较小,但可以反映出模型捕捉潜在火灾特征的能力得到了增强。在第4组实验中,将ShapeIoU损失函数引入到模型中。其中模型的精度、召回率和F1分数分别提高了8.85%, 0.8%和5.04%,AP火焰和mAP分别提高了10.1%和4.35%。验证了ShapeIoU损失函数的有效性。

    表 1  消融实验(%)
    实验组号UIB焦点调制ShapeIoU精度召回率F1FPS (fps)AP火焰AP烟雾mAP
    1×××84.9093.8089.135388.4068.5078.45
    2××95.7092.9094.287091.8077.4084.60
    3××94.1094.4594.275496.8071.5084.15
    4××93.7594.6094.175698.5067.1082.80
    5×95.3595.4595.395796.9074.0085.45
    6×98.0594.6596.327396.8082.4089.60
    7×97.5094.5596.007296.9071.6084.25
    898.2398.7698.497599.5084.7092.10
    下载: 导出CSV 
    | 显示表格

    在第5组实验中,我们将焦点调制注意力机制和ShapeIoU损失函数同时应用于模型。模型的精度、召回率和F1分数分别提高了10.45%, 1.65%和6.26%,AP火焰, AP烟雾和mAP分别提高了8.5%, 5.5%和7%。验证了焦点调制注意力机制和ShapeIoU损失函数能够有效缓解模型对于高置信度预测的过度依赖。在第2组实验中,模型的推理速度得到了极大的提升,但倾向于置信度较高的预测结果,漏掉了一些正确的预测样本,导致召回率略微降低0.9%。在第3组、第4组和第5组的实验中,焦点调制注意力机制和ShapeIoU损失函数对于实时检测效果的提升不明显,但却可以有效缓解模型对于高置信度预测样本的依赖。在第6组、第7组和第8组的实验中,依次将各个模块应用到网络中。模型的检测精度、召回率和F1分数得到了显著的提升,推理速度也得到了进一步的提高。与第2组实验结果相比,第6组和第7组的召回率得到了提升,进一步验证了焦点调制注意力机制和ShapeIoU损失函数能够降低模型对于高置信度预测样本的依赖,弥补了UIB对于召回率的影响。精度和FPS指标的上升证明模块可以有效提高模型检测精度和推理速度。在第8组实验中,与基准模型相比,精度、召回率和F1分数分别提高了13.33%, 4.96%和9.36%。AP火焰, AP烟雾和mAP分别提高了11.1%, 16.2%和13.65%。FPS提高22fps。验证本文提出的CFS-YOLO模型可以有效提高早期火灾检测的精度和推理速度,能够达到早期火灾的实时检测。

    为直观展示焦点调制注意力机制与ShapeIoU损失函数的协同作用,我们引入了注意力热图,如图6所示。结果显示,与基准模型相比,仅使用ShapeIoU损失函数对于模型捕捉关键区域的能力并没有很大的提升。仅应用焦点调制注意力机制,注意力热图所标示的关注区域与真实关键特征之间的匹配度显著提高,验证了焦点调制注意力机制能够整合图像中的上下文信息,增强模型对于复杂场景及干扰的鲁棒性。相较于仅应用焦点调制注意力机制,ShapeIoU损失函数与焦点调制机制结合使用,使得模型能够更加有效地聚焦于目标对象的边缘区域,进而在关键区域产生更高的准确性。同时,该组合在捕捉火灾烟雾特征方面表现更为出色,显著增强了模型的识别能力。此外,在背景复杂或存在环境干扰的情况下,焦点调制注意力机制与ShapeIoU损失函数的结合使用有效提升了模型对火灾目标的聚焦能力,实现了关键特征的准确捕捉,进一步验证了协同效应的存在。

    图 6  检测热力图

    图7是基准模型和应用ShapeIoU损失函数的损失曲线图。结果显示,随着训练次数的增加,基准模型的边界框损失、分类损失和dfl损失在0.5左右收敛,而ShapeIoU损失曲线的边界框损失和dfl损失收敛于0.3,分类损失收敛于0.15。表明预测框的分类以及定位更加准确。同时基准模型经过80个epoch损失降至0.5左右,而ShapeIoU损失函数只需经过10个epoch,损失就可以快速收敛到同样水平,表明模型具有快速学习的能力。在第80个训练周期,基准模型的损失达到动态平衡,收敛在0.5。而ShapeIoU损失函数的边界框损失和dfl损失在40个周期快速收敛到0.3,分类损失在第80个epoch时收敛到0.15。由此表明,引入ShapeIoU损失函数的模型收敛速度显著增加,从而验证了ShapeIoU损失函数的有效性。因此,本研究使用ShapeIoU作为模型的损失函数。

    图 7  IoU(a)与ShapeIoU(b)损失曲线

    图8展示了本文模型在验证集上的精度-召回率曲线(评估模型性能)、精度-置信度曲线和召回率-置信度曲线。从图8(a)可知,火焰类别的曲线下面积接近于1,对于火焰的检测准确率较高,但对于烟雾的检测效果略微较低。这是因为数据集中烟雾图像较少,导致模型未能充分学习烟雾特征。图8(b)显示,精度随着置信度的增加而增大;图8(c)表明,召回率随着置信度的增加而减小。在置信度约为0.6时,二者取得平衡,因此本研究采取置信度为0.6进行实验。

    图 8  CFS-YOLO模型检测结果曲线

    为了进一步验证本文提出模型的优越性,将CFS-YOLO与目标检测领域中十种主流的检测模型进行了性能比较,包括:Faster R-CNN[9], Deformable DETR[36], YOLOv3[37], MobileNet[40], SqueezeNet[41], AlexNet[42], GoogLeNet[43], Resnet50[44], EfficientNet[45]。为了体现对比的公平性,本文按照YOLOv5和YOLOv8进行算法的分类,并进行对比验证,包括:YOLOv5[38], YOLOv5-s[27], FCLGYOLO[26], YOLOv5+ShuffleNetv2+SIoU[31], YOLOv8[39], SlimNeck-YOLOv8[28], FFYOLO[46], LUFFD-YOLO[47], YOLO-CSQ[48]。该研究中的模型均未经过预训练和数据增强处理。

    表2展示本文方法与其他目标检测模型的性能比较。与其他主流算法模型相比,本文提出的CFS-YOLO模型在各个指标上取得了相对的优势。Deformable DETR和ResNet50在精度上取得了较好效果,但召回率较低,说明火灾漏检较为严重。Faster R-CNN, GoogleNet和YOLOv3召回率较高,但精度较低,表明易发生火灾误检情况。MobileNet, GoogleNet和EfficientNet虽然具有较小的参数量,但精度和召回率较低,无法满足早期火灾检测的要求。与基于YOLOv5的算法相比,本文所提出的模型在检测精度和召回率上达到了最优水平。此外,与基于YOLOv8的算法相比,CFS-YOLO不仅参数量较少,还显著提升了模型的检测精度和召回率,充分验证了其卓越的性能表现。与基准模型YOLOv8相比,参数量降低了14.7M ,在实现较快推理速度的同时取得了最优的检测精度。CFS-YOLO同时兼顾了精度、召回率和参数量。在拥有高精度和高召回率的同时,参数量相对较小。其最优的精度使得模型在火灾检测中具备更低的误检率,更高的召回率降低了模型的漏检率。证明了本文模型可以满足高准确性检测的同时,还具有较高的推理速度,能够满足现实场景下早期火灾实时检测的需求。

    表 2  不同算法性能对比
    算法 方法 精度 召回率 参数量(M)
    主流算法 Faster R-CNN 0.692 0.960 41.30
    Deformable DETR 0.911 0.620 40.00
    MobileNet 0.800 0.830 3.40
    SqueezeNet 0.810 0.930 48.00
    AlexNet 0.850 0.900 16.40
    GoogLeNet 0.860 0.980 5.00
    Resnet50 0.900 0.920 25.60
    EfficientNet 0.810 0.820 7.80
    YOLOv3 0.817 0.960 61.53
    YOLOv5 YOLOv5 0.811 0.938 20.90
    YOLOv5-s 0.916 0.896 20.74
    FCLGYOLO 0.872 0.881 20.90
    YOLOv5+ShuffleNetv2+SIoU 0.893 0.812 17.10
    YOLOv8 YOLOv8 0.849 0.938 25.90
    SlimNeck-YOLOv8 0.944 0.836
    FFYOLO 0.918 0.905 20.72
    LUFFD-YOLO 0.809 0.811 22.45
    YOLO-CSQ 0.931 0.877 20.40
    CFS-YOLO 0.982 0.988 11.20
    下载: 导出CSV 
    | 显示表格

    为了突显本研究工作的先进性,我们将CFS-YOLO与火焰检测方法进行了对比,具体结果详见表3。对比结果表明,CFS-YOLO在检测精度和召回率方面表现出明显的优势。尽管DPMNet[29], MFE+ IDS+ CA[32]和EdgeFireSmoke[33]的模型在参数量上低于本研究的模型,但它们在检测精度和召回率上却显著不如CFS-YOLO。另一方面,YOLOv5-s[27]虽然取得了相对良好的检测性能,然而其参数量约为CFS-YOLO的两倍,导致推理速度变慢。CFS-YOLO不仅在性能上领先,还在计算效率方面展现了优越性,证明了其在火焰检测领域的潜力和应用价值。

    表 3  不同火焰检测算法性能对比
    方法 精度 召回率 参数量(M)
    文献[26] FCLGYOLO 0.872 0.881 20.90
    文献[27] YOLOv5-s 0.916 0.896 20.74
    文献[28] Slim Neck-YOLOv8 0.944 0.836
    文献[29] DPMNet 0.750 0.674 11.00
    文献[30] FLE 0.945 0.894
    文献[31] YOLOv5+ShuffleNetv2+SIou 0.893 0.812 17.10
    文献[32] MFE+IDS+CA 0.835 0.774 4.80
    文献[33] EdgeFireSmoke 0.757 0.625 1.55
    本文算法 CFS-YOLO 0.982 0.988 11.20
    下载: 导出CSV 
    | 显示表格

    为了更全面的对比模型的性能,本文绘制了8种目标检测代表性模型在不同系列和版本下的准确率与参数量的关系,并将其与CFS-YOLO进行对比,实验对比结果如图9所示。根据结果显示,二阶段目标检测模型Faster RCNN具有较大的参数量,响应时间较长,并且在检测精度方面的表现不尽如人意。在轻量化检测模型中,MobileNet, AlexNet和EfficientNet 等随着模型的更迭逐步提高了准确度,但同时参数量也相应增加,导致推理速度变慢。在参数量相近的情况下,CFS-YOLO, EfficientNetB3, YOLOv8m和ResNet18的准确率分别为96.27%, 90.10%, 80.72%和76.00%。虽然ResNet152取得了92.8%的检测准确率,但参数量约是CFS-YOLO的5倍,推理时间大大增加。并且其他方法的检测准确性均低于CFS-YOLO。再次验证了CFS-YOLO的优越性能。

    图 9  不同算法的准确率与参数量关系图

    从综合角度出发,CFS-YOLO在精度、召回率、F1分数方面均超越了具有代表性的8种模型,而且保持了较小的参数量。由此可以得出,本文所提的CFS-YOLO方法的综合性能最优。在具有较高检测准确率的同时,有效减少了参数量,为设备受限的场景下准确检测火灾的需求提供了切实可行的方法支持。

    为了更直观地展示CFS-YOLO模型的优越性,本文针对多种火灾场景进行了全面的实验,包括检测大火图像、中火图像、小火图像、存在遮挡、火灾视频连续帧和类火图像等,并对实验结果进行了可视化呈现,结果如图10所示,CFS-YOLO对大火和中火的检测十分准确,能够准确识别并区分各种干扰物体。这得益于焦点调制注意力机制的引入,使得模型更加专注于火灾区域,降低了误检率。同时本文模型对像素较低的小火图像检测也表现出很高的准确性,表明模型具有强大的特征提取能力,能够从复杂背景中提取出微弱的火灾特征信息。并且该模型可以有效的检测视频连续帧中的火灾,进一步说明模型在实时检测中的高效性和可靠性。模型还能够准确辨别受到遮挡的火焰、类火物体以及与烟雾类似的丁达尔效应,从而降低了误检率。综合来看,这些实验结果证明了该研究方法能够有效捕捉火灾特征信息,并且具有优越的检测性能。

    图 10  不同场景的早期火灾检测效果图

    为了具体展示CFS-YOLO与对比算法的性能,本文选取了基于YOLOv8主体的算法进行了可视化实验,可视化结果见图11。对于背景较为简单的第1张、第3张和第4张图片,6种算法虽然检测置信度不同,但仍可以检测出火灾。然而,在背景与火焰颜色相似的第2张图片,YOLOv8和FFYOLO出现了漏检现象。在火灾目标较小的第五张图片中,虽然YOLOv8和FFYOLO成功检测到火焰,但对不规则烟雾的识别则出现了漏检,LUFFD-YOLO未能准确识别火灾。SlimNeck-YOLOv8虽然在上述图片中没有发生漏检的现象,但检测的置信度较低,在复杂的场景中极易发生漏检的现象。与其他算法相比,CFS-YOLO模型在火灾检测过程中展现出了卓越的性能,证明了CFS-YOLO在早期火灾检测中的优异性能。

    图 11  不同算法的早期火灾检测效果

    为对比本文模型与基准模型火灾检测性能的差异,分别绘制了在验证集上火焰和烟雾的混淆矩阵,如图12所示。验证集中共标记有564处火焰和103处烟雾目标。基准模型识别出538处火焰和89处烟雾。而CFS-YOLO模型则能精准识别出558处火焰和98处烟雾,与基准模型相比,火焰的检测数量增加了20处,烟雾的检测数量则增加了9处,检测性能得到了提升。同时基准模型分别误报和漏报了77张和73张图片。而本文模型分别误报和漏报了15张和7张图片。这表明CFS-YOLO模型显著降低了误报率和漏报率,并且可以有效的检测出火焰和烟雾。

    图 12  基准模型(a)与CFS-YOLO模型(b)的混淆矩阵效果图

    为了实时检测早期阶段火灾,本文提出了一种基于粗细粒度搜索与焦点调制的早期火灾检测模型CFS-YOLO。该模型基于YOLOv8构建。通过粗细粒度搜索快速确定特征提取网络架构,通过部分权重共享提高学习效率,以最大化推理时间,提高了网络的检测速度。在特征提取网络的末端集成焦点调制注意力机制,实现对于火灾图像重点位置的关注,解决了复杂火灾场景干扰造成的模型精度较低的问题。由于边界框本身形状和角度会对预测框造成影响,因此,该研究采用考虑边界框自身形状和角度的ShapeIoU损失函数,用于提高边界框的定位精度,同时ShapeIoU损失函数能够快速的提高模型的收敛速度。经过一系列的实验,逐步验证了改进模型的有效性以及在实时火灾检测任务上的适用性。在保证高精度的同时,CFS-YOLO达到了较高的推理速度,实现了实时检测。消融实验表明,本文模型的检测速度高达75帧,满足了实时检测的需求,且检测精度和召回率达到了最优。从性能对比实验可以看出,本文模型在参数量较小的情况下,取得了最优的准确率。验证了本文模型对于早期火灾检测的有效性。

    综上所述,本文模型在早期火灾检测任务中表现出良好的效果。模型的准确性仍面对挑战,在距离火灾目标较远时,模型存在漏检现象。在未来的工作中,尝试引入高分辨率成像技术和多光谱成像设备,结合遥感小目标检测模型和物联网技术,将数据实时传送到模型中进行早期火灾目标检测,以提高模型在远距离下火灾检测的准确性。

  • 图  1  CFS-YOLO模型结构示意图

    图  2  倒瓶颈模块UIB结构图

    图  3  焦点调制注意力机制结构图

    图  4  ShapeIoU损失示意图

    图  5  “ other ”类火灾场景

    图  6  检测热力图

    图  7  IoU(a)与ShapeIoU(b)损失曲线

    图  8  CFS-YOLO模型检测结果曲线

    图  9  不同算法的准确率与参数量关系图

    图  10  不同场景的早期火灾检测效果图

    图  11  不同算法的早期火灾检测效果

    图  12  基准模型(a)与CFS-YOLO模型(b)的混淆矩阵效果图

    1  粗粒度搜索

     1: 输入: 候选架构数量 N , 最大训练 epochs 数 E
     2: 输出: 最优候选架构 Abest
     3: SEARCH_SPACE # 初始化候选架构空间
      步骤 1: 使用 NAS 生成候选架构
     4: for i = 1 to N do
     5:  Acandidate ← create_random_architecture() # 生成基础架构
     6:  Acandidate ← adjust_topology(Acandidate) # 调整拓扑结构
     7:  Acandidate ← adjust_dimensions(Acandidate) # 更改输入输出
     通道数
     8:  Acandidate ← flexible_selection(Acandidate)# 选择特征图维度
     和卷积核大小
     9: SEARCH_SPACE.append(Acandidate) # 将候选框架添加到搜
     索空间
     10: end for
      步骤 2:评估每个候选架构
     11: PERFORMANCE_METRIC # 初始化性能指标
     12: for each Aarchitecture ∈ SEARCH_SPACE do
     13:  model ← build_model(Aarchitecture) # 构建模型
     14:  train(model, E) #对模型进行 E 次训练
     15:  performance ← evaluate_model(model) # 评估模型性能
     16:  PERFORMANCE_METRIC.append(performance) # 储
     存性能指标
     17: end for
      步骤 3:执行多目标优化
     18: PARETO_FRONT ← compute_pareto_front(PERFORMANCE_METRIC)
     # 计算架构的 Pareto 最优解
     19: Abest ← select_balanced_architecture(PARETO_FRONT)
     # 选择平衡准确性和效率的最优架构
      步骤 4:权重共享
     20: for each layer in Abest do
     21:  apply_weight_sharing(layer) # 在层内实现权重共享
     22: end for
     23: return Abest # 返回最优候选架构
    下载: 导出CSV

    表  1  消融实验(%)

    实验组号UIB焦点调制ShapeIoU精度召回率F1FPS (fps)AP火焰AP烟雾mAP
    1×××84.9093.8089.135388.4068.5078.45
    2××95.7092.9094.287091.8077.4084.60
    3××94.1094.4594.275496.8071.5084.15
    4××93.7594.6094.175698.5067.1082.80
    5×95.3595.4595.395796.9074.0085.45
    6×98.0594.6596.327396.8082.4089.60
    7×97.5094.5596.007296.9071.6084.25
    898.2398.7698.497599.5084.7092.10
    下载: 导出CSV

    表  2  不同算法性能对比

    算法 方法 精度 召回率 参数量(M)
    主流算法 Faster R-CNN 0.692 0.960 41.30
    Deformable DETR 0.911 0.620 40.00
    MobileNet 0.800 0.830 3.40
    SqueezeNet 0.810 0.930 48.00
    AlexNet 0.850 0.900 16.40
    GoogLeNet 0.860 0.980 5.00
    Resnet50 0.900 0.920 25.60
    EfficientNet 0.810 0.820 7.80
    YOLOv3 0.817 0.960 61.53
    YOLOv5 YOLOv5 0.811 0.938 20.90
    YOLOv5-s 0.916 0.896 20.74
    FCLGYOLO 0.872 0.881 20.90
    YOLOv5+ShuffleNetv2+SIoU 0.893 0.812 17.10
    YOLOv8 YOLOv8 0.849 0.938 25.90
    SlimNeck-YOLOv8 0.944 0.836
    FFYOLO 0.918 0.905 20.72
    LUFFD-YOLO 0.809 0.811 22.45
    YOLO-CSQ 0.931 0.877 20.40
    CFS-YOLO 0.982 0.988 11.20
    下载: 导出CSV

    表  3  不同火焰检测算法性能对比

    方法 精度 召回率 参数量(M)
    文献[26] FCLGYOLO 0.872 0.881 20.90
    文献[27] YOLOv5-s 0.916 0.896 20.74
    文献[28] Slim Neck-YOLOv8 0.944 0.836
    文献[29] DPMNet 0.750 0.674 11.00
    文献[30] FLE 0.945 0.894
    文献[31] YOLOv5+ShuffleNetv2+SIou 0.893 0.812 17.10
    文献[32] MFE+IDS+CA 0.835 0.774 4.80
    文献[33] EdgeFireSmoke 0.757 0.625 1.55
    本文算法 CFS-YOLO 0.982 0.988 11.20
    下载: 导出CSV
  • [1] CHEN Yute and HWANG J K. A power-line-based sensor network for proactive electrical fire precaution and early discovery[J]. IEEE Transactions on Power Delivery, 2008, 23(2): 633–639. doi: 10.1109/TPWRD.2008.917945.
    [2] SRIDHAR P, THANGAVEL S K, PARAMESWARAN L, et al. Fire sensor and surveillance camera-based GTCNN for fire detection system[J]. IEEE Sensors Journal, 2023, 23(7): 7626–7633. doi: 10.1109/JSEN.2023.3244833.
    [3] 李倩, 岳亮. 吸气式感烟火灾探测器设计改进研究[J]. 消防科学与技术, 2021, 40(11): 1644–1647. doi: 10.3969/j.issn.1009-0029.2021.11.018.

    LI Qian and YUE Liang. Research on design improvement of aspirating smoke detector[J]. Fire Science and Technology, 2021, 40(11): 1644–1647. doi: 10.3969/j.issn.1009-0029.2021.11.018.
    [4] WANG Yong, HAN Yu, TANG Zhaojia, et al. A fast video fire detection of irregular burning feature in fire-flame using in indoor fire sensing robots[J]. IEEE Transactions on Instrumentation and Measurement, 2022, 71: 7505414. doi: 10.1109/TIM.2022.3212986.
    [5] CHAOXIA Chenyu, SHANG Weiwei, ZHANG Fei, et al. Weakly aligned multimodal flame detection for fire-fighting robots[J]. IEEE Transactions on Industrial Informatics, 2023, 19(3): 2866–2875. doi: 10.1109/TII.2022.3158668.
    [6] BUSHNAQ O M, CHAABAN A, and AL-NAFFOURI T Y. The role of UAV-IoT networks in future wildfire detection[J]. IEEE Internet of Things Journal, 2021, 8(23): 16984–16999. doi: 10.1109/JIOT.2021.3077593.
    [7] GIRSHICK R, DONAHUE J, DARRELL T, et al. Rich feature hierarchies for accurate object detection and semantic segmentation[C]. 2014 IEEE Conference on Computer Vision and Pattern Recognition, Columbus, USA, 2014: 580–587. doi: 10.1109/CVPR.2014.81.
    [8] GIRSHICK R. Fast R-CNN[C]. 2015 IEEE International Conference on Computer Vision, Santiago, Chile, 2015: 1440–1448. doi: 10.1109/ICCV.2015.169.
    [9] REN Shaoqing, HE Kaiming, GIRSHICK R, et al. Faster R-CNN: Towards real-time object detection with region proposal networks[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2017, 39(6): 1137–1149. doi: 10.1109/TPAMI.2016.2577031.
    [10] REDMON J, DIVVALA S, GIRSHICK R, et al. You only look once: Unified, real-time object detection[C]. 2016 IEEE Conference on Computer Vision and Pattern Recognition, Las Vegas, USA, 2016: 779–788. doi: 10.1109/CVPR.2016.91.
    [11] LIU Wei, ANGUELOV D, ERHAN D, et al. SSD: Single shot MultiBox detector[C]. The 14th European Conference on Computer Vision, Amsterdam, The Netherlands, 2016: 21–37. doi: 10.1007/978-3-319-46448-0_2.
    [12] CHAN A B and VASCONCELOS N. Modeling, clustering, and segmenting video with mixtures of dynamic textures[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2008, 30(5): 909–926. doi: 10.1109/TPAMI.2007.70738.
    [13] CHAKRABORTY I and PAUL T K. A hybrid clustering algorithm for fire detection in video and analysis with color based thresholding method[C]. The 2010 International Conference on Advances in Computer Engineering, Bangalore, India, 2010: 277–280. doi: 10.1109/ACE.2010.12.
    [14] WANG Yijun. Simulation study of fuzzy neural control fire alarm system based on clustering algorithm[C]. The 2022 2nd International Conference on Algorithms, High Performance Computing and Artificial Intelligence, Guangzhou, China, 2022: 217–221. doi: 10.1109/AHPCAI57455.2022.10087561.
    [15] DIMITROPOULOS K, BARMPOUTIS P, and GRAMMALIDIS N. Spatio-temporal flame modeling and dynamic texture analysis for automatic video-based fire detection[J]. IEEE Transactions on Circuits and Systems for Video Technology, 2015, 25(2): 339–351. doi: 10.1109/TCSVT.2014.2339592.
    [16] ASIH L C, STHEVANIE F, and RAMADHANI K N. Visual based fire detection system using speeded up robust feature and support vector machine[C]. The 2018 6th International Conference on Information and Communication Technology, Bandung, Indonesia, 2018: 485–488. doi: 10.1109/ICoICT.2018.8528752.
    [17] YAR H, HUSSAIN T, AGARWAL M, et al. Optimized dual fire attention network and medium-scale fire classification benchmark[J]. IEEE Transactions on Image Processing, 2022, 31: 6331–6343. doi: 10.1109/TIP.2022.3207006.
    [18] MUHAMMAD K, AHMAD J, LV Zhihan, et al. Efficient deep CNN-based fire detection and localization in video surveillance applications[J]. IEEE Transactions on Systems, Man, and Cybernetics: Systems, 2019, 49(7): 1419–1434. doi: 10.1109/TSMC.2018.2830099.
    [19] LI Changdi, LI Guangye, SONG Yichen, et al. Fast forest fire detection and segmentation application for UAV-assisted mobile edge computing system[J]. IEEE Internet of Things Journal, 2024, 11(16): 26690–26699. doi: 10.1109/JIOT.2023.3311950.
    [20] MUHAMMAD K, KHAN S, ELHOSENY M, et al. Efficient fire detection for uncertain surveillance environment[J]. IEEE Transactions on Industrial Informatics, 2019, 15(5): 3113–3122. doi: 10.1109/TII.2019.2897594.
    [21] HUANG Lida, LIU Gang, WANG Yan, et al. Fire detection in video surveillances using convolutional neural networks and wavelet transform[J]. Engineering Applications of Artificial Intelligence, 2022, 110: 104737. doi: 10.1016/j.engappai.2022.104737.
    [22] ZHANG Lin, WANG Mingyang, DING Yunhong, et al. MS-FRCNN: A multi-scale faster RCNN model for small target forest fire detection[J]. Forests, 2023, 14(3): 616. doi: 10.3390/f14030616.
    [23] CHAOXIA Chenyu, SHANG Weiwei, and ZHANG Fei. Information-guided flame detection based on faster R-CNN[J]. IEEE Access, 2020, 8: 58923–58932. doi: 10.1109/ACCESS.2020.2982994.
    [24] CHEKNANE M, BENDOUMA T, and BOUDOUH S S. Advancing fire detection: Two-stage deep learning with hybrid feature extraction using faster R-CNN approach[J]. Signal, Image and Video Processing, 2024, 18(6): 5503–5510. doi: 10.1007/s11760-024-03250-w.
    [25] 赵杰, 汪洪法, 吴凯. 基于特征增强及多层次融合的火灾火焰检测[J]. 中国安全生产科学技术, 2024, 20(1): 93–99. doi: 10.11731/j.issn.1673-193x.2024.01.014.

    ZHAO Jie, WANG Hongfa, and WU Kai. Fire flame detection based on feature enhancement and multi-level fusion[J]. Journal of Safety Science and Technology, 2024, 20(1): 93–99. doi: 10.11731/j.issn.1673-193x.2024.01.014.
    [26] REN Dong, ZHANG Yang, WANG Lu, et al. FCLGYOLO: Feature constraint and local guided global feature for fire detection in unmanned aerial vehicle imagery[J]. IEEE Journal of Selected Topics in Applied Earth Observations and Remote Sensing, 2024, 17: 5864–5875. doi: 10.1109/JSTARS.2024.3358544.
    [27] QADIR Z, LE K, BAO V N Q, et al. Deep learning-based intelligent post-bushfire detection using UAVs[J]. IEEE Geoscience and Remote Sensing Letters, 2024, 21: 5000605. doi: 10.1109/LGRS.2023.3329509.
    [28] 邓力, 周进, 刘全义. 基于改进YOLOv8的火焰与烟雾检测算法[J/OL]. 清华大学学报: 自然科学版: 1–9. https://doi.org/10.16511/j.cnki.qhdxxb.2024.27.036, 2024.

    DENG Li, ZHOU Jin, and LIU Quanyi. Fire and smoke detection algorithm based on improved YOLOv8[J/OL]. Jouranl of Tsinghua University: Science and Technology: 1–9. https://doi.org/10.16511/j.cnki.qhdxxb.2024.27.036, 2024.
    [29] WANG Guanbo, LI Haiyan, SHENG V, et al. DPMNet: A remote sensing forest fire real-time detection network driven by dual pathways and multidimensional interactions of features[J]. IEEE Transactions on Circuits and Systems for Video Technology, 2025, 35(1): 783–799. doi: 10.1109/TCSVT.2024.3462432.
    [30] PATEL A N, SRIVASTAVA G, MADDIKUNTA P K R, et al. A trustable federated learning framework for rapid fire smoke detection at the edge in smart home environments[J]. IEEE Internet of Things Journal, 2024, 11(23): 37708–37717. doi: 10.1109/JIOT.2024.3439228.
    [31] 曹康壮, 焦双健. 融合注意力机制的轻量级火灾检测模型[J]. 消防科学与技术, 2024, 43(3): 378–383. doi: 10.3969/j.issn.1009-0029.2024.03.017.

    CAO Kangzhuang and JIAO Shuangjian. A lightweight fire detection model integrating attention mechanism[J]. Fire Science and Technology, 2024, 43(3): 378–383. doi: 10.3969/j.issn.1009-0029.2024.03.017.
    [32] LI Songbin, YAN Qiandong, and LIU Peng. An efficient fire detection method based on multiscale feature extraction, implicit deep supervision and channel attention mechanism[J]. IEEE Transactions on Image Processing, 2020, 29: 8467–8475. doi: 10.1109/TIP.2020.3016431.
    [33] ALMEIDA J S, HUANG Chenxi, NOGUEIRA F G, et al. EdgeFireSmoke: A novel lightweight CNN model for real-time video fire–smoke detection[J]. IEEE Transactions on Industrial Informatics, 2022, 18(11): 7889–7898. doi: 10.1109/TII.2021.3138752.
    [34] ZHENG Zhaohui, WANG Ping, LIU Wei, et al. Distance-IoU loss: Faster and better learning for bounding box regression[C]. The 34th AAAI Conference on Artificial Intelligence, New York, USA, 2020: 12993–13000. doi: 10.1609/aaai.v34i07.6999.
    [35] ZHANG Hao and ZHANG Shuaijie. Shape-IoU: More accurate metric considering bounding box shape and scale[EB/OL]. https://doi.org/10.48550/arXiv.2312.17663, 2023.
    [36] ZHU Xizhou, SU Weijie, LU Lewei, et al. Deformable DETR: Deformable transformers for end-to-end object detection[C]. The Ninth International Conference on Learning Representations, Vienna, Austria, 2021: 3448. (查阅网上资料, 未找到本条文献出版地、页码信息, 请确认) .
    [37] REDMON J and FARHADI A. YOLOv3: An incremental improvement[EB/OL]. https://doi.org/10.48550/arXiv.1804.02767, 2018.
    [38] JOCHER G, STOKEN A, BOROVEC J, et al. ultralytics/yolov5: v5.0 - YOLOv5-P6 1280 models, AWS, supervise. ly and YouTube integrations[EB/OL]. https://zenodo.org/record/4679653, 2021.
    [39] VARGHESE R and M S. YOLOv8: A novel object detection algorithm with enhanced performance and robustness[C]. 2024 International Conference on Advances in Data Engineering and Intelligent Computing Systems, Chennai, India, 2024: 1–6. doi: 10.1109/ADICS58448.2024.10533619. (查阅网上资料,标黄信息不确定,请确认) .
    [40] HOWARD A G, ZHU Menglong, CHEN Bo, et al. MobileNets: Efficient convolutional neural networks for mobile vision applications[EB/OL]. https://doi.org/10.48550/arXiv.1704.04861, 2017.
    [41] IANDOLA F N, HAN Song, MOSKEWICZ M W, et al. SqueezeNet: AlexNet-level accuracy with 50x fewer parameters and <0.5MB model size[EB/OL]. https://doi.org/10.48550/arXiv.1602.07360, 2016.
    [42] KRIZHEVSKY A, SUTSKEVER I, and HINTON G E. ImageNet classification with deep convolutional neural networks[J]. Communications of the ACM, 2017, 60(6): 84–90. doi: 10.1145/3065386.
    [43] SZEGEDY C, LIU Wei, JIA Yangqing, et al. Going deeper with convolutions[C]. 2015 IEEE Conference on Computer Vision and Pattern Recognition, Boston, USA, 2015: 1–9. doi: 10.1109/CVPR.2015.7298594.
    [44] HE Kaiming, ZHANG Xiangyu, REN Shaoqing, et al. Deep residual learning for image recognition[C]. 2016 IEEE Conference on Computer Vision and Pattern Recognition, Las Vegas, USA, 2016: 770–778. doi: 10.1109/CVPR.2016.90.
    [45] DHIMAN A, SHAH N, ADHIKARI P, et al. Firefighting robot with deep learning and machine vision[J]. Neural Computing and Applications, 2022, 34(4): 2831–2839. doi: 10.1007/s00521-021-06537-y.
    [46] YUN Bensheng, ZHENG Yanan, LIN Zhenyu, et al. FFYOLO: A lightweight forest fire detection model based on YOLOv8[J]. Fire, 2024, 7(3): 93. doi: 10.3390/fire7030093.
    [47] HAN Yuhang, DUAN Bingchen, GUAN Renxiang, et al. LUFFD-YOLO: A lightweight model for UAV remote sensing forest fire detection based on attention mechanism and multi-level feature fusion[J]. Remote Sensing, 2024, 16(12): 2177. doi: 10.3390/rs16122177.
    [48] LUAN Tian, ZHOU Shixiong, LIU Lifeng, et al. Tiny-object detection based on optimized YOLO-CSQ for accurate drone detection in wildfire scenarios[J]. Drones, 2024, 8(9): 454. doi: 10.3390/drones8090454.
  • 加载中
图(12) / 表(4)
计量
  • 文章访问数:  171
  • HTML全文浏览量:  55
  • PDF下载量:  41
  • 被引次数: 0
出版历程
  • 收稿日期:  2024-10-24
  • 修回日期:  2025-02-26
  • 网络出版日期:  2025-03-05

目录

/

返回文章
返回