分享
基于深度学习的干扰环境下火焰识别研究_高伟.pdf
下载文档

ID:2543172

大小:2.37MB

页数:10页

格式:PDF

时间:2023-07-10

收藏 分享赚钱
温馨提示:
1. 部分包含数学公式或PPT动画的文件,查看预览时可能会显示错乱或异常,文件下载后无此问题,请放心下载。
2. 本文档由用户上传,版权归属用户,汇文网负责整理代发布。如果您对本文档版权有争议请及时联系客服。
3. 下载前请仔细阅读文档内容,确认文档内容符合您的需求后进行下载,若出现内容与标题不符可向本站投诉处理。
4. 下载文档时可能由于网络波动等原因无法下载或下载错误,付费完成后未能成功下载的用户请联系客服处理。
网站客服:3074922707
基于 深度 学习 干扰 环境 火焰 识别 研究
文章编号:1009-6094(2023)06-1889-10基于深度学习的干扰环境下火焰识别研究高 伟,孙 意,李艳超,周永浩(大连理工大学化工学院精细化工国家重点实验室,辽宁大连 116024)摘 要:传统的火焰识别方法依赖于提取火焰的物理特征,存在精确度差、应用范围窄等问题。通过对比已有的线性网络、谷歌网络和残差网络的性能,确定残差网络的误差最小,准确度最高,并选取残差网络构建火焰特征识别网络DarkNet53。自行构建数据集,并将干扰对象设置为灯光、太阳和火焰图标,将三者与火焰图像一起构成数据集。基于YOLO v3 算法在上述干扰环境下对火焰进行识别和网路性能测试。结果表明,基于深度学习的火焰识别方法能够准确区分火焰和类似火焰的干扰因素,实现了在多干扰环境下对火焰的准确有效识别。仅使用普通的广角摄像机就可以对开阔空间中的火焰进行准确识别,降低了应用成本,此外,该方法还适用于多种场景,提高了方法的适用范围。关键词:安全工程技术科学;火焰识别;火焰数据集;卷积神经网络;残差网络中图分类号:X932 文献标志码:ADOI:10.13637/j.issn.1009-6094.2021.2417收稿日期:20220104作者简介:高伟,教授,从事安全科学与工程研究,gaoweidlut 。基金项目:国家自然科学基金优秀青年基金项目(51922025)表 1 20162020 我国火灾事故统计数据1Table 1 Statistics on fire accidents in my country from 2016 to 2020年份火灾次数/万次死亡人数受伤人数直接财产损失/亿元201631.21 5821 06537.20201728.11 39088136.00201823.71 40779836.75201923.31 33583736.12202025.21 18377540.090 引 言火的诞生对于人类社会的进步和发展至关重要。然而,在生产和生活过程中,因自然或人为因素导致的火灾和爆炸事故屡见不鲜。表 11展示了20162020 年我国火灾事故统计数据,频繁发生的事故对人民生命和财产安全造成了严重危害。为发展高效的事故预防和减灾措施,快速并准确的火焰识别技术不可或缺。火灾发生时往往伴随着发光、发热和产生烟雾等现象,传统的火焰探测器基于以上物理特性来判断火灾是否发生。这种检测方法对环境和空间依赖性大,实时性和可靠性差2,由于其探测原理存在固有的缺陷,并未得到广泛的应用。随着计算机技术的发展,依据火焰视觉特征识别火焰的图像型火焰检测技术逐渐发展起来。火焰的视觉特征包括静态特征和动态特征。其中,静态特征主要包括火焰的光谱特征和几何特征等。Wirth 等3于2010 年提出一种基于改进的 YCbCr 色彩空间直方图反射投影算法进行火焰识别。严云洋等4通过 RGB 彩色空间建立了火焰的彩色模型,并提出了基于连通区域面积阈值化的单像素宽度目标轮廓特征的抽取方法。为了减少只依据静态特征进行识别的误报率,结合火焰的动态特征,可以进一步提高火焰识别的准确率。Ollero 等5依据频闪、火焰面积扩张等特性提出了利用图像相关性进行火灾检测的方法,但是该方法过于理想化和规律化,导致方法的应变力、适应性较差。近些年,神经网络技术在计算机视觉领域得到了飞速发展,被广泛应用于人脸识别、图像分类、物体识别等方向。线性神经网络、谷歌神经网络和残差网络都是常见的目标识别网络,得到了广泛的应用。宋卫国等6使用线性神经网络与传统方法进行了对比,验证了线性神经网络更高的特征提取性能。周宇晨等7在 2021 年将线性神经网络对甲烷分层旋流火焰进行振荡预报,预报精度达到 90%以上。朱永红等8使用改进的线性神经网络实现了对陶瓷窖内火焰的识别,识别准确率达到 96.5%。陈钦柱9881第 23 卷第 6 期2023 年 6 月 安全 与 环 境 学 报Journal of Safety and Environment Vol.23 No.6Jun.,2023等9引入 Inception 模块,构建了 GoogleNet,加深了网络深度,对视频中的火焰进行了识别,具有很高的计算效率和检测准确度。庞殊杨等10使用残差网络对转炉火焰的 8 种状态进行分类识别,识别的准确率高达 98.73%,实现了高精度识别的应用需求。喻立春等11使用以残差网络为主干的 Mask RCNN 算法,相比于原先的算法,改进算法的识别定位精度更高,检测准确率提升超过 5%,实现了对火焰的识别。线性神经网络出现时间早、研究成熟、改进模型众多,因 此 应 用 广 泛。剩 余 二 者(GoogleNet 和ResNet)出现时间较晚,目前对常见目标诸如人脸、汽车、行人和建筑物等目标的识别较多,而对与安全工程相关的火焰、火灾等目标的识别较少。因此本文将通过对比选择上述性能最优的网络来搭建火焰特征提取网络,并且使用自行构建的数据集完成对火焰的检测与识别任务。1 神经网络介绍1.1 线性神经网络的结构人工神经网络(Artificial Neural Networks,ANN)是基于生物学中神经网络的基本原理,模拟人脑神经系统对复杂信息处理机制的一种数学模型。该模型以并行分布的处理能力、高容错性、智能化等优点,受到各学科领域的关注。图 2 LeNet 结构Fig.2 Structure of LeNet图 1 人工神经网络结构Fig.1 Structure of artificial neural networkxi+1=WTxi(1)人工神经网络以处理向量和数组为主,其结构简图如图 1 所示,主要由 3 部分构成,分别为输入层、隐藏层和输出层。网络中的每 1 层都是 1 个一维向量,通过式(1)所示的线性运算关系进行层与层之间的连接。其中,xi和 xi+1表示网络第 i 和第i+1 层向量,W 表示权值矩阵,xij表示第 i 层的第 j个节点。1.2 卷积神经网络的结构卷积神经网络(Convolutional Neural Networks,CNN)是在人工神经网络的基础上发展起来的一种新型的网络结构。20 世纪 90 年代,Lecun 等12提出了 LeNet 模型,其结构如图 213所示。该网络在ANN 线性运算的基础上引入了卷积运算模块和反向传播算法(Back Propagation),确立了卷积神经网络的现代结构,使得 CNN 能够对图像这种特殊的数据结构进行处理。LeNet5 中首次使用了卷积操作,主要用于提取图像中的局部特征信息。为了突出卷积后图像主要的特征信息,对图像进行下采样(或池化,DownPooling)处理。全连接(Full Connection)将所有经过卷积操作得到的多个表征局部特征的向量重新拼接成一个含有所有特征信息的向量。最后通过多次线性运算输出结果进行后续的损失函数的计算和参数优化过程。LeNet 确立了现代 CNN 最基本的结构:卷积+下采样(池化)+全连接。在 LeNet 网 络 之 后,诞 生 了 极 具 突 破 性 的AlexNet 网络。AlexNet 引入了激活函数,激活函数将非线性因素引入到神经网络中,使得神经网络可以逼近任意一种非线性函数14,使网络的性能得到了极大的提升。自此,卷积神经网络结构已趋于完整。2 常见神经网络性能对比2.1 MNIST 数据集MNIST 数据集是由美国国家标准与技术研究所0981 Vol.23 No.6 安全 与 环 境 学 报 第 23 卷第 6 期(National Institute of Standards and Technology 或NIST)创建的,是深度学习中最常用和最简单的数据集15。MNIST 数据集是由数万张 28 28 像素的手写数字(0 9)图像组成。该数据集包含训练集和测试集 2 部分,分别包含 60 000 张训练图像和10 000 张测试图像。2.2 网络中的运算模块线性网络(LinearNet)、谷歌网络(GoogleNet)和残差网络(ResNet)是 3 种常用的网络结构,由于其快速、高效的运算和处理能力得到了科研人员的青睐,被广泛应用于人工智能领域。本文使用 MNIST数据集训练这 3 种已有的网络进行网络性能的研究。图 3 LinearNet 结构Fig.3 Structure of LinearNet2.2.1 LinearNet 结构LinearNet 包含全连接、线性运算、激活和反向传播过程。它首先通过全连接将 MNIST 数据集中的28 28 的图像重整成长度为 784 的一维向量,随后通过如图 3(a)所示的线性运算和激活运算不断地对向量进行处理,最终将长度为 10 的向量作为网络输出对图像上的数字进行分类处理,该网络结构如图 3(b)所示。该网络的结构比较简单,处理对象为简单的一维向量,对图像中目标的特征提起能力相对较弱。2.2.2 GoogleNet 结构GoogleNet 在 2014 年 ImageNet 图像分类中获得了冠军,性能优越。GoogleNet 模型的创新之处在于引入了 Inception 模块,这是一种网中网(Network inNetwork)结构,即网络中的节点也是一个网络。Inception 模块是一种具有局部优良拓扑结构的网络,如图 4(a)所示。该模块对输入图像执行 4 次不同的卷积或池化操作,最后将获得的多个特征拼接在一起,作为一个节点的输出。在常规的卷积神经网络中添加 Inception 模块,就构成了本研究使用的如图 4(b)所示的 GoogleNet。Inception 模块的优势在于增加了网络深度,同时减少了不必要的参数量。Inception 模块在每一个节点处同时采用1 1、3 3和 5 5 的 3 种卷积核而非只有 5 5 的卷积核来处理图像,使网络在结构上变得更“宽”而不是更“深”,减少了不必要参数量,降低了运算成本。1 1 卷积降低运算成本的原理如图 5 所示。假设当前图像具有192 个通道,尺寸为28 28,为保持图像大小不变,在卷积时对图像进行步长为 2 的填充处理,再通过 5 5 卷积运算将原图像通道降为32。只有 5 5 卷积的情况,如图 5(a)所示,其参数量超为 1.2 亿个。当引入 1 1 卷积后,如图 5(b)所示,同样对含有 192 个通道的图像进行步长为 2的填充处理,首先通过一个 1 1 的卷积操作降低其通道数,再用 5 5 的卷积操作将其通道数扩大至32,其运算量只有 0.12 亿。前后参数量相差 10 倍。因此,对图像进行 1 1 的卷积运算降低其通道数可以显著降低运算量。3 3 卷积减少参数量的原理与之类似。2.2.3 ResNet 结构残差网络(ResNet)是一种新型网络结构,用于加深网络,提高网络的性能,它是为了解决网络深度加深导致网络性能下降的问题而诞生的。ResNet 中的残差模块建立了层与层之间的跨层连接,是网络的核心结构。试验表明,随着网络层级的加深,模型精度确实得到了提高,但是当网络层级超过一定数目时,模型精度大幅下降,反而低于浅层网络的识别精度。网络层数加深降低了网络性能是因为在优化过1981 2023 年 6 月 高 伟,等:基于深度学习的干扰环境下火焰识别研究 Jun.,2023程中出现了梯度消失的现象,使得优化过程停滞或图 4 GoogleNet 结构Fig.4 Structure of GoogleNet图 5 2 种卷积运算对比Fig.5 Comparison of two convolution operations无法收敛,从而使得网络性能退化。而残差模块能够很好地解决上述问题。模块结构如图 6(a)所示,残差模块包含 2 种映射,一种是恒等映射(图 6(a)中折线部分);另一种是残差映射(图 6(a)中除折线以外的部分)16。一个残差块的形式如式(2)所示。H(x)=F(x,W)+x(2)图 6 ResNet 结构Fig.6 Structure o

此文档下载收益归作者所有

下载文档
你可能关注的文档
收起
展开