夜间
红外
行人
图像
可见光
检索
算法
刑事技术论 著2023 年 第 48 卷 第 4 期 基金项目:江苏省公安厅科技研究项目(2020KX006);江苏省高等学校自然科学面上项目(21KJD510005)第一作者简介:李宗辰,男,江苏南京人,硕士,讲师,研究方向为视频侦查、人工智能。E-mail:网络首发时间:2022-10-10;网络首发地址:https:/doi.org/10.16467/j.1008-3650.2022.0063 DOI:10.16467/j.1008-3650.2022.0063夜间红外行人图像在可见光行人图像库的检索算法 李宗辰,叶 东,李俊瑶,张 颐,陈春涛(江苏警官学院刑事科学技术系,南京 210031)摘 要:本文旨在弥补夜间红外模式监控下行人图像与白天监控下行人图像间的模态差异和异构特性,较好实现多摄像头下红外人像与可见光人像数据间的检索和比对任务。设计一种局部参数共享的双路卷积神经网络模型,提取具有全局粗粒度和局部细粒度的两种人像特征,通过对两种特征分别进行特征度量,实现跨模态人像检索模型的训练和优化。结果表明,模型所提取的两种特征在测试数据集上具有较好的应用效果,准确率与目前主流算法相比具有竞争力。本研究能够服务视频侦查工作,提高现有的动态、静态人像比对的应用水平。关键词:红外人像;跨模态;行人重识别;多粒度;卷积神经网络中图分类号:DF793.2 文献标识码:A 文章编号:1008-3650(2023)04-0378-08Retrieval Algorithm on Checking Night-shot Infrared Pedestrians Image into Visible-light-rendering Image Library of PedestriansLI Zongchen,YE Dong,LI Junyao,ZHANG Yi,CHEN Chuntao(Department of Forensic Science,Jiangsu Police Institute,Nanjing 210031,China)ABSTRACT:Image retrieval algorithms aim at achieving individual re-identifi cation through searching across a gallery of peoples images from different non-overlapping video monitoring cameras.However,night-shot infrared pedestrians images captured by surveillance systems have different data distributions from those of conventional colored RGB images,resulting in loss of all the color components which are crucial for pedestrian comparison.The differences between the two kinds of images are regarded as their modality discrepancy that can lead to large intra-class variations and modality gaps across different cameras.Thus,it is necessary and valuable to effectively bridge the modality gaps and alleviate the heterogeneous characteristics between pedestrian images shot nightly in infrared mode and those monitor-kept in the daytime so that the available retrieval algorithms could be improved of their effects under the widely-used visible-light-rendering image database.Accordingly,a dual-path partial-parameter-sharing framework was here designed with combination into a deep convolutional neural network(CNN)to extract the features from two-modality images possessing both the global coarse-granularity and local fi ne-granularity.The pre-trained ResNet50-based network was used to optimize the model training with the constraints of cross-modality entropy loss,center-based and sample-based triplet loss,eventually having brought forth an optimal model through adjustment of the weighted constraints into functions of the three losses indicated above.Subsequently,the feature measurement was carried out to validate the recognition effect on cross-modality images.The experimental results showed that the extracted multi-granularity features presented good application effect on the tested dataset under single shot mode,having SYSU-MM01 dataset demonstrated of effect verifi cation and visualization that the resulting multi-granularity components did complement each other and hold a competitive testing accuracy compared to other several relevant algorithms.This research can serve video investigation work and help the on-going dynamic and static pedestrian image comparison.The algorithm proposed here would have broad applicable prospects in both the video investigation and future intelligent practice.KEY WORDS:infrared pedestrian image;cross-modality;individual re-identifi cation;multi-granularity;CNN3792023 年 第 48 卷 第 4 期李宗辰,等:夜间红外行人图像在可见光行人图像库的检索算法图1 两种不同模态图片的异构特性Fig.1 Heterogeneous characteristics of two modality-different images在视频侦查工作中,现阶段进行海量监控中的目标人物检索主要依赖人脸特征,单纯依靠面部特征在实战应用中易受到刻意遮挡和伪装等因素的约束。为更好解决跨多摄像头下完整行人图像的检索问题,行人重识别技术在近五年得到了广泛的研究,随着以深度神经网络为基础的特征提取技术的快速发展,该技术有望在现有人脸识别的基础上,进一步提高案件中动态和静态人像的比中能力。公安实战中,一些盗窃类案件在夜间发案率较高,侦查中常需要使用夜间采集的行人图像在常规数据集中进行图像检索。许多视频监控在暗光条件下会切换为红外(thermal/infrared)模式工作,由于红外传感器成像原理的限制,采集图片无法反映原有的颜色与纹理信息,这类图像与可见光成像时采集的 RGB(即红、绿、蓝)三通道数据存在显著差异,两种数据可被视为不同模态。使用传统的特征提取算法如 HOG1,LOMO2等,以及单路的卷积神经网络,在此类检索中无法取得较好的重识别效果。目前公安应用的检索算法主要针对 RGB 单模态数据,而使用夜间拍摄的红外图像在白天的库中进行人像搜寻,或以相反方式检索,比中的概率明显较低。红外与可见光两种图片数据的模态差异如图 1中所示,查询图片为红外监控采集,需要在待查询的多摄像头下的可见光图片集中检索目标。两种模态间的行人检索面临的挑战和难点主要来自于两个方面:1)多摄像头下的行人差异。与单模态行人检索与行人重识别任务类似,在多个不重叠的监控摄像头下,采集的人像间均存在较大的人物姿态差异、摄像机视角差异,以及受环境、遮挡等多重因素的影响;2)在两种模态的特征提取中,两种数据间存在模态差异,同一身份行人提取的两种模态特征应当能够与其他人的特征相分离,因此针对两种模态所设计的特征提取器需要能够将属于同一人的两种特征映射至接近的特征空间。为解决上述问题,本文以红外人像在多摄像头数据集中检索同身份的可见光行人图片为目标,设计并实现了一个鲁棒的跨模态人像检索算法。首先,探索构建一个双分支局部参数共享的卷积神经网络,通过两个阶段的特征提取,分别在浅层提取模态特有特征,以及在高层提取模态共有特征,使该网络具有全局粗粒度和局部细粒度的行人特征提取能力;接着,探索对于两种特征使用三元组损失的组合与交叉熵损失共同训练模型;最后,通过实验验证两种特征的结合能够有效提升检索效果。1 跨模态行人重识别技术及相关研究行人重识别(person re-identifi cation)是一个行人图片检索任务,主要解决多个不重叠视角的摄像头下同身份行人图片的匹配问题。目前大部分的识别工作专注于可见光图像之间的匹配,因此也被认为是单模态行人重识别。在行人特征提取方面,在深度学习出现之前,主要使用传统的手工设计方法,如 HOG1,LOMO2,HIPHOP3等。自 2012 年起,以 Krizhevsky4为代表的深度神经网络特征提取方法,极大地提升了图像查询图片待查询图片特征提取网络特征向量刑事技术Forensic Science and Technology3802023 年 第 48 卷 第 4 期识别的效果。用于特征提取的主干深度神经网络的发展经过 Alexnet、VGGNet,到 ResNet5等,网络拟合数据的能力不断提升,网络在表示能力、泛化能力上不断发展。红外 可见光(infrared-visible)间的跨模态行人重识别的研究旨在减少或克服红外与可见光间的模态差异,实现更为精准的行人检索任务,2017 年由 Wu 等6首次尝试解决跨模态行人重识别问题,目前的研究主要集中在特征提取与模型度量两个方面。可见光图像通常能够反映人物的颜色特征,而夜间监控捕捉红外光线,无法真实反应颜色特征。在深度特征提取中,需要深入挖掘如轮廓、纹理等模态共有信息,以及充分应用颜色等模态特有信息,并有效解决模态间差异问题,使提取的特征间能够实现相互比对。在跨模态特征提取的网络结构方面:2017 年,Wu 等6提出了一种单路的深度零填充的网络用于模态共享特征学习;2018 年,Ye 等7提出了双流网络(TONE),该网络是一种包含了表征学习和度量学习的两阶段网络框架,运用双路网络结构学习共享特征;Liu 等8提出增强鉴别特征学习(EDFL),通过跳连接方式实现了卷积神经网络中间层特征的融合来增强行人特征的辨别力和鲁棒性;Liu 等9探索了双路主干网络的共享参数特性,通过选择参数特有层数与参数共享层数来确定最为合适的网络结构;Zhang等10通过使用全局特征提取通路和两种细粒度特征提取通路共同训练了一个全局 局部多细粒度模型。在模型优化和度量方法方面,为解决跨模态行人重识别中红外模态特征与可见光模态特征间的模态差异问题,以及同身份同模态样本间的模态内差异问题,Ye 等7利用双路网络结构学习 RGB 和 IR 图像的共有特征,并提出了一种分层跨模态学习方法融合特征损失和对比损失进行相似度学习;Zhu 等11提出了异质中心损失,用于减少两种不同模态特征中心间的距离;Liu 等9提出异质中心三元组损失,以模态的特征中心作为三元组的优化目标,替代样本三元组,从而实现同类样本间距离的接近和异类样本间距离的保持。2 特征提取与度量模型构建本文的特征提取与度量模型的整体设计框图如图 2 所示。数据准备部分主要为模型的训练与测试提供数据来源,训练过程中的数据采样方法在 3.1 节中详细描述。由数据集中采样的红外与可见光图片,分别输入红外通道、可见光通道,进入卷积神经网络。输入图片经过卷积神经网络的前向传递,实现全局和局部特征提取,在模型训练阶段需要进行特征间的度量和误差的反向传递;在测试阶段,即模型的应用阶段,所提取的全局特征(FGlobal)和局部特征(FLocal)通过拼接,共同组成由单张图片所抽取的两种不同粒度特征。图2 全局和局部特征提取卷积神经网络模型结构Fig.2 Structure of multi-granularity feature extraction model数据准备度量FCFC全局和局部特征提取3812023 年 第 48 卷 第 4 期李宗辰,等:夜间红外行人图像在可见光行人图像库的检索算法2.1 全局与局部人像特征提取网络架构本文所设计的多细粒度行人特征提取器由模态特有特征提取与模态共有特征嵌入两阶段构成,如图2 中所示。网络输入分红外通道与可见光通道,分别输入经预处理的红外图像和可见光图像,输入图像大小统一调整为 384144 像素。特征提取网络选用经典结构 ResNet505作为主干网络。在模态特有特征提取阶段,网络由 ResNet50 的浅层卷积块 Conv1和残差卷积块 Conv2 组成,主要实现从两种异构图片中提取浅层的模态特有的信息,如边缘、纹理等,输出特征维数为 256,特征图尺寸为 9636。输出的 特 征 图 共 同 输 入 ResNet50 的 Conv3、Conv4 和Conv5 层,该三层为参数共享层,通过共享参数的特征提取方法,提取两种模态图片中较为统一的高层语义信息。将原主干网络最后一个下采样层的步长改为 1,使得 Conv5 层后输出对应每张图片的特征尺寸为 2 048249,此特征即为输入图片所对应的全局特征。局部特征划分。经过共享参数层 Conv5 之后,单张图片得到全局的 2 048 个的特征图,单个特征图大小为 249。为实现更加鲁棒的特征提取,以及关注行人从上到下多个部分特征,参考 PCB12方法中的分块策略,将全局特征图在垂直方向分为 6 块,即每个分块特征的对应维度为 2 04849,此 特征为基于部件的细粒度特征。该特征经过 6 个分块各自的池化层进行空间抽取和 11 卷积层的特征降维后,得到 6 个 256 维的特征。全局的 2 048249特征经空间的广义平均池化(GeM)13后,得到2 048 维的特征。在测试和应用阶段,通过将单个红外或可见光图片输入各自通道,提取特征 FTest为全局特征(FGlobal)与局部分块特征(FLocal)的拼接,维度为 2 048 2566,即将单个图片表示为长为 3 584 的行人特征。2.2 特征度量方法特征提取网络在 Conv5 层后输出的特征为全局特征(FGlobal)和将全局特征水平分块的细粒度特征(FLocal),需要合理设计损失函数,对两种特征进行度量,引导特征提取器的参数训练。损失函数的目标为通过函数的优化,达到数据集类别个数的分类,同时还需要增大跨模态问题中不同类别行人所抽取的特征向量的类间距离,并达到缩小相同类别个体在不同模态特征间的类内距离的效果。本文使用交叉熵损失、基于难样本挖掘的三元组损失和基于特征中心优化的三元组损失共同训练。将模型训练首先作为分类任务,以训练数据集中身份个数(即 ID 个数)作为分类目标个数,在本模型中,使用交叉熵损失函数分别训练全局及细粒度分支经卷积层、批量归一化层、全连接层(FC 层)后的输出向量。交叉熵损失的目标是提取身份特定的信息用于分类,对应的函数表示为:(1)其中,X 为输入网络的小批量图片,WWk为第 k 类的权重向量,WWTk为 WWk的转置矩阵,f f(xi)代表样本 xi所提取的特征向量,样本 xi属于类别 yi,2PK 为每次从数据集读取的小批量(即 mini-batch)的大小,CE为训练集中类别的个数。此外,以单张图片为一个样本,在样本与样本间距离度量和优化方面选择基于难样本挖掘的三元组14损失,表示为 Lsample-Trt:p=1.K(2)模型在 Conv5 层后的两种小批量模态特征 X 中进行难样本挖掘,公式(2)中 xia代表锚点的第 i 个行人的第 a 张图片,xip代表与锚点同为正样本的行人图片,x+形式为标准的合页损失,a-b2代表计算a 与 b 之间的欧氏距离。代表从正样本中挖掘距离最大的样本对。表示从负样本中挖掘距离最小的样本对。为表示间隔的超参数,取为 0.3。本损失函数通过优化最近负样本对与最远正样本对之间的距离,实现样本与样本的特征间距离优化。为进一步增加特征优化的约束,在样本与样本间优化方式的基础上,选择基于中心优化异质中心三元组损失9,记为 Lcenter-Tri:刑事技术Forensic Science and Technology3822023 年 第 48 卷 第 4 期(3)公式前半部分考虑以可见光、红外、负样本特征的数据中心(civ、cit、ckn)作为样本代表,将传统三元组损失中以选定的锚点(anchor)样本到其他样本的计算,优化为锚点身份的所有特征中心到其他身份特征中心的计算。在每一次读取的小批量 X 中,每种模态中每个身份的特征中心经过计算,以可见光的中心为例,可以表示为,其中 v vij是小批量中第 i 个人的第 j 个可见光特征向量,K 为小批量中每个身份取的图片个数;红外图片的中心表示为,其中tij对应地代表了红外图片特征。由此,对全局分支使用交叉熵损失与三元组损失的组合 LGlobal共同优化全局特征,该分支的损失函数表示为 L1:(4)在局部细粒度分支使用交叉熵损失与三元组损失的组合 LLocal共同优化,FiLocal为单个部件特征,该局部分支的损失函数表示为 L2:(5)至此得出引导模型训练过程的总损失函数:(6)LGlobal与 LLocal中三元组损失的组合在 3.4 节中详述。3 模型训练与识别效果评价3.1 训练数据集的准备目前业界常用于模型训练与算法评估的跨模态数据集主要有 SYSU-MM016与 RegDB15。由于现实场景中通常两种模态摄像机不为同一视角摄像机,因此选用 SYSU-MM01 数据集构建模型参数与验证模型性能。SYSU-MM01 为 2017 年发布的首个大型 RGB-IR 数据集,共有图片 303 420 张,图片分属 491 个行人身份,由 6 个摄像头采集,其中 4 个可见光摄像头采集 287 628 张图片,2 个红外摄像机采集了15 792 张图片。在采集方式方面,SYSU-MM01 采用红外传感器,主动采集红外图像。采集环境包括户外采集和室内采集,每个行人至少被 2 个不同的摄像机采集。测试集中,查询集(probe set)包含采集自 96 个行人的 3 803 个红外图片,样本集(gallery set)仅包含可见光图像。测试的目的是从查询集中提取图片,并在样本集中匹配最相似的图片,从而验证模型的检索效果。根据采集自六个摄像头的数据,在模型识别效果的测试阶段,共有两种模式,分别是全搜索模式和室内搜索模式。全搜索模式中,使用红外摄像头为查询集,图片采集自摄像头 3 和 6;可见光摄像头采集的图片用于构建样本集,来自摄像头 1、2、4、5。室内模式中,可见光摄像头 1、2 为样本集,红外摄像头 3 为查询集。两种搜索模式覆盖了多摄像头下的不同场景,能够有效验证模型对于多种场景的泛化能力。室内搜索的测试难度较全搜索稍低,因此准确率通常比全搜索更高。在模型训练时,对所用数据集的训练集采用PK 采样策略进行采样,我们设置 P 值为 4,K 值为 4,即每次叠代时,从数据集中随机选取 4 个行人ID,再从每个 ID 中分别随机选取 4 张可见光与 4 张红外图片,构成一个 2PK 的小批量 X,送入神经网络的两个通道进行训练。使用该采样策略的目的是为了保证单次送入神经网络的小批量图片能够使三元组损失充分挖掘样本与样本间、类别与类别间的关系,使得神经网络在梯度反向传播时能够保持稳定收敛。该方法还能避免图片完全随机采样时所造成的类别间波动较大的问题。本文采用单次拍摄(single shot)的验证方式6评价模型效果。3.2 评价指标跨模态行人重识别模型的效果评价使用图像检索任务中最常用的 2 个评价指标,为累计匹配曲线(cumulative match characteristic,CMC)和平均均值精度(mean average precision,mAP)。CMC 反映了分类识别模型前 k 个命中概率,其中使用 Rank1、Rank10、Rank20 表示前 1、10、20个返回结果中的比中概率。mAP 是多标签图像分类问题中常用的评价指标,衡量的是模型在所有类别的平均性能,其值均以百分比形式呈现,越接近 100%表示效果越好。3.3 实验环境设置本文所述方法,使用 Pytorch 框架实现,Pytorch版本为 1.7.0,实验系统搭载 GPU 为 Nvidia RTX3090,3832023 年 第 48 卷 第 4 期李宗辰,等:夜间红外行人图像在可见光行人图像库的检索算法显示存储容量为 24 GB。双路深度神经网络的输入图片大小统一调整为 384144,图片四周补 10 个像素,对图片使用随机水平翻转的数据增强方法。设置网络基础学习率为 0.1,设置训练迭代次数为 60个 Epoch。3.4 损失函数的组合与超参数的确定在损失函数的选择方面,首先固定公式(4)、(5)中超参数、均为 1,对全局特征(LGlobal)与局部特征(LLocal)使用不同的三元组损失函数组合进行训练,通过多组的 LCenter-Tri与 LSample-Tri组合,其中较好的 3 种训练结果如表 1 所示。由表 1 中可知,对于全局特征分支,使用难样本三元组损失与异质中心三元组损失,对于局部特征分支,使用异质中心三元组损失,能够取得较好的首位比中率(Rank1 62.37%)。在确定损失函数组合的基础上对超参数进行进一步分析。对于全局与局部特征,两种损失函数需要进行平衡,LGlobal与 LLocal损失使用不同的 与 的权重值组合,取值范围主要为 0.1 1.0,结果较优的几种取值情况如表 2 所示。由表 2 中结果分析,当超参数 1,0.6 时,在表 1 中损失函数为组合 3 的情况下,模型取得了更优的 Rank1 与 mAP 指标。3.5 模型识别效果通过实验对所设计模型的主要评价指标进行分析,模型取得的评价指标与其他一些主流方法的对比如表 3 所示。表1 全局与局部分支的损失函数组合的训练结果Table 1 Results of training under the combination with functions of global and local loss全局特征(LGlobal)局部特征(LLocal)Rank1/%mAP/%LSample-TriLCenter-Tri58.7457.98LCenter-TriLCenter-Tri59.0158.21LSample-Tri+LCenter-TriLCenter-Tri59.1659.1656.6856.68表2 损失函数权重、值的选取Table 2 Selection of weighted parameters,of loss function损失函数超参数Rank1/%mAP/%0.1,0.159.1157.900.1,0.359.6958.720.3,0.160.0357.980.6,159.1157.900.3,0.661.2159.630.6,0.360.4059.221 1,0.60.662.3762.3760.4160.411,159.1656.68表3 模型的评价指标与其他方法的比较Table 3 Evaluation of the model proposed in this research and other alternatives%方法全搜索室内搜索Rank1Rank10Rank20mAPRank1Rank10Rank20mAPHOGEuclidean12.7618.2531.914.243.2224.6844.527.25LOMOCDFE23.6423.1837.284.535.7534.3554.9010.19HIPHOPCRAFT31.8014.5626.293.402.8623.4041.947.16HCML714.3253.1669.1716.1624.5273.2586.7330.08TSLFN1156.9691.5096.8254.9559.7492.0796.2264.91DGTL1757.340055.1363.110069.20HcTri961.6893.1097.1757.5163.4191.6995.2868.17本文方法本文方法62.3762.3793.1993.1997.4297.4260.4160.4165.7265.7291.4591.4595.4095.4074.5274.52本文方法在数据集的全搜索模式下取得 62.37%的 Rank1 准确率,在室内搜索模式下取得 65.72%的Rank1 准确率。与手工设计特征的三种方法 HOG1+欧式距离度量、LOMO2+CDFE16度量方法、HIPHOP3+CRAFT 度量方法相比,本方法指标 Rank1 准确率提升在 50 个百分点以上。与 HCML7方法相比,Rank1 准确率提升约 48 个百分点;与使用局部特征和异质中心损失的 TSLFN11方法相比,Rank1 准确率提升约 5 个百分点;与使用全局特征和混合池化方法的 DGTL17方法相比,Rank1 准确率提升约 5个百分点;与使用局部特征以及异质中心三元组损失的 HcTri9方法比较,本方法提升约 0.69 个百分点。表 3 的结果表明本方法能够有效结合全局与局部特征,提升识别效果的多项评价指标。刑事技术Forensic Science and Technology3842023 年 第 48 卷 第 4 期在模型训练完成之后,使用单个图片中抽取的全局特征(FGlobal)、局部特征(FLocal)以及两者结合的整体特征(FTest),分别进行测试,以验证最终的结果是由两种特征共同作用取得,具体数据见表 4。结果表明,使用本文设计网络输出的全局特征,可以达到 52.25%的 Rank1 准确率;使用局部特征,可以达到 62.00%的 Rank1 准确率;而将两种特征结合,能够进一步有效提升最终的 Rank1 准确率(62.37%),优于单独使用全局特征和局部特征。对训练完成的模型进行可视化的效果测试,通过输入单张红外图片,进行红外与可见光图片间识别效果的可视化,模型应用效果示例如图 3 所示。标识 Query 的为所输入的图片,以 ID 为 10,Cam 为 3的行人图片在测试集中搜寻,从前十个返回结果看,正确图片依次排在第 1、2、3、5 位,测试集中共有正确样本数 4 个,正确样本均在前 10 的结果中返回;以 ID 为 17,Cam 为 6 的行人图片在测试集中的搜寻结果,正确图片排在第 1 位,测试集中共有正确样本数 1 个。从实验的评价指标与实验的可视化结果上看,本文所设计模型均取得了较好的应用效果。表4 两种特征的组合效果验证Table 4 Verifi cation on effect of combining the global and local features选用特征特征维度Rank1/%mAP/%全局特征(FGlobal)204852.2549.61局部特征(FLocal)256662.0060.37全局与局部特征(FTest)2048+256662.3762.3760.4160.41图3 单个人像在测试集中的识别效果Fig.3 Identifi cation with querying single-person image among the test dataset4 总结与展望本文通过使用卷积神经网络,设计了一个双路的全局和局部特征提取模型。通过对两种特征提取模型的综合训练,本算法能够有效实现红外行人与可见光行人图片间的检索任务。从实验的评价指标与可视化结果上看,本研究算法的应用效果较好。行人检索以及行人重识别技术作为图像检索技术的一个子任务,在近五年时间中得到了广泛的研究,多种方法在公开数据集上的识别效果不断提升。在公安机关的视频侦查工作中,有效应用行人检索技术,能够作为人脸识别手段的补充,提高嫌疑人身份匹配的准确率,在一些人脸伪装和遮挡较多的场景下,对于身份确定具有较广阔的应用前景。参考文献 1 DALAL N,TRIGGS B.Histograms of oriented gradients forhuman detection C /2005 IEEE computer society conferenceon computer vision and pattern recognition(CVPR 05),2005.2 LIAO S,HU Y,ZHU X,et al.Person re-identifi cation by localmaximal occurrence representation and metric learning C /Proceedings of the IEEE conference on computer vision and3852023 年 第 48 卷 第 4 期pattern recognition,2015.3 CHEN Y C,ZHU X,ZHENG W S,et al.Person re-identifi cationby camera correlation aware feature augmentation J .IEEEtransactions on pattern analysis and machine intelligence,2017,40(2):392-408.4 KRIZHEVSKY A,SUTSKEVER I,HINTON G.ImageNetclassification with deep convolutional neural networks C/NIPS Proceedings of the 25th International Conference onNeural Information Processing Systems-Volume 1,2012.5 HE K,ZHANG X,REN S,et al.Deep residual learning forimage recognition C /Proceedings of the IEEE conference oncomputer vision and pattern recognition,2016.6 WU A,ZHENG W S,YU H X,et al.RGB-infrared cross-modality person re-identifi cation C /2017 IEEE InternationalConference on Computer Vision(ICCV),2017.7 YE M,LAN X,LI J,et al.Hierarchical discriminative learningfor visible thermal person re-identifi cation C /Proceedings ofthe AAAI Conference on Artifi cial Intelligence,2018.8 LIU H,CHENG J,WANG W,et al.Enhancing thediscriminative feature learning for visible-thermal cross-modality person re-identification J .Neurocomputing,2020,398:11-19.9 LIU H,TAN X,ZHOU X.Parameter sharing explorationand hetero-center triplet loss for visible-thermal person re-identifi cation J .IEEE Transactions on Multimedia,2020,23:4414-4425.10 ZHANG L,DU G,LIU F,et al.Global-local multiple引用本文格式:李宗辰,叶东,李俊瑶,等.夜间红外行人图像在可见光行人图像库的检索算法J.刑事技术,2023,48(4):378-385.granularity learning for cross-modality visible-infrared personreidentifi cation J .IEEE Transactions on Neural Networks andLearning Systems,2021(7):1-11.11 ZHU Y X,YANG Z,WANG L,et al.Hetero-center loss forcross-modality person re-identification J .Neurocomputing,2020,386:97-109.12 SUN Y,ZHENG L,YANG Y,et al.Beyond part models:person retrieval with refined part pooling C /ComputerVision-ECCV 2018,2018:501-518.13 RADENOVI F,TOLIAS G,CHUM O.Fine-tuningCNN image retrieval with no human annotation J .IEEEtransactions on pattern analysis and machine intelligence,2018,41(7):1655-1668.14 SCHROFF F,KALENICHENKO D,PHILBIN J.Facenet:aunified embed