分享
基于多姿态角模型的SAR图像分类方法_李家强.pdf
下载文档

ID:2251455

大小:860.85KB

页数:7页

格式:PDF

时间:2023-05-04

收藏 分享赚钱
温馨提示:
1. 部分包含数学公式或PPT动画的文件,查看预览时可能会显示错乱或异常,文件下载后无此问题,请放心下载。
2. 本文档由用户上传,版权归属用户,汇文网负责整理代发布。如果您对本文档版权有争议请及时联系客服。
3. 下载前请仔细阅读文档内容,确认文档内容符合您的需求后进行下载,若出现内容与标题不符可向本站投诉处理。
4. 下载文档时可能由于网络波动等原因无法下载或下载错误,付费完成后未能成功下载的用户请联系客服处理。
网站客服:3074922707
基于 多姿 模型 SAR 图像 分类 方法 李家强
书书书雷达智能信号处理专题DOI:1016592/jcnki10047859202212009基于多姿态角模型的 SA 图像分类方法李家强*a,b,胡张燕b,杨广乐b,陈金立a,b,黄柏圣b(南京信息工程大学 a 气象灾害预报预警与评估协同创新中心;b 电子与信息工程学院,南京 210044)摘要:针对传统合成孔径雷达(SA)图像目标识别存在精度低、效率差的问题,提出一种多姿态角模型 SA 图像分类方法。根据 SA 图像姿态角敏感特性,首先将数据集按照不同方式和间距进行划分,得到不同的数据集组合,其次利用卷积神经网络训练划分后的数据集得到不同组子模型,并将效果最好的一组子模型融合成一种多姿态角模型,最后使用稀疏表示的方法对待测样本进行姿态角的角度估计,获取其姿态角信息后送入多姿态角模型中进行模型匹配,得到图像分类结果。实验结果表明,所提方法的目标识别准确率高于传统算法,在姿态角变化较小的数据集中训练得到的模型能够对目标群体进行更精确的目标类别估计。关键词:合成孔径雷达;自动目标识别;卷积神经网络;姿态角估计;多姿态角模型中图分类号:TN95751文献标志码:A文章编号:10047859(2022)12006307引用格式:李家强,胡张燕,杨广乐,等 基于多姿态角模型的 SA 图像分类方法 J 现代雷达,2022,44(12):6369LI Jiaqiang,HU Zhangyan,YANG Guangle,et al Multi-attitude angle model SA image classification method basedon angle estimation J Modern adar,2022,44(12):6369Multi-attitude Angle Model SA Image Classification MethodBased on Angle EstimationLI Jiaqiang*a,b,HU Zhangyanb,YANG Guangleb,CHEN Jinlia,b,HUANG Baishengb(a Collaborative Innovation Center on Forecast and Evaluation of Meteorological Disasters;b School of Electronic and Information Engineering,Nanjing University of Information Science and Technology,Nanjing 210044,China)Abstract:Aiming at the problems of low accuracy and poor efficiency of target recognition in traditional synthetic aperture radar(SA)images,a multi-attitude angle model for SA image classification is proposed According to the attitude angle sensitivitycharacteristics of SA images,firstly,the data sets are divided according to different ways and spacing to obtain different data setsSecondly,the convolutional neural network is used to train the divided data sets to obtain different groups of sub-models,and thebest group of sub-models is fused into a multi-attitude angle model Finally,the method of sparse representation is used to estimatethe attitude angle of the test samples After obtaining the attitude angle information,the image classification results are obtained bysending it into the multi-attitude angle model for model matching Experimental results show that the target recognition accuracy ofthe proposed method is higher than that of the traditional algorithm,and the model trained in the dataset with small changes in atti-tude angle can estimate the target category more accuratelyKey words:synthetic aperture radar;automatic target recognition;convolutional neural network;angle estimation;multiple atti-tude angle model基金项目:国家自然科学基金资助项目(62071238);江苏省自然科学基金资助项目(BK20191399)收稿日期:2022-08-12修订日期:2022-10-100引言机载及星载合成孔径雷达(SA)能够在各种气候条件下昼夜工作,并产生高分辨率图像,广泛用于各类重点场景监视12。在 SA 成像过程中,由于电磁波的后向散射,图像数据在采集过程中会受到严重的斑点噪声的影响3,通常很难从中做出有效的目标识别。因此,SA 图像自动目标识别(AT)算法发展成为雷达领域的一个研究热点。传统的 SA 图像分类方法,一般需要人工设计来提取目标特征,特征的好坏容易影响分类的准确度。随着深度学习的出现,通过神经网络直接对数据进行学习建模,能更精确有效地学习数据内部的特征,获得更高的目标检测率47。而且,SA 图像具有很强的姿态角敏感特性,即目标特征随着姿态角变化会产生较为明显的改变。从这一角度来看,将 SA 图像的姿态角信息纳入 SA-AT 算法有很大的研究价值,且已被证明基于不同姿态角能够提高 SA 目标识别的分类性能。例如文献 8 提出一种利用方位角信息的传统模板匹配SA目标分类方法,该方法比直接基于相36第 44 卷第 12 期2022 年 12 月现 代 雷 达Modern adarVol44No12Dec 2022关匹配方法的分类准确率有所提高,但分类速度难以满足实际需求。文献 9提出基于稀疏表示分类(SC)的方法,该方法分别对原始图像与方位角灵敏图像进行分类,采用分数级融合的方法结合二者分类结果,使得分类准确率达到了 9504%。上述两种方法仅考虑了 SA 图像中的方位角特征,却没有利用目标的姿态角信息。近年来,深度卷积神经网络(CNN)已经被用于 SA 图像目标的检测与识别中,并且已经取得了较好的结果1013。然而,目前基于深度学习的 SA-AT 算法往往只针对完整数据集,且主要利用了目标的强度信息,并没有将姿态角信息完全纳入 SA 目标识别中。针对上述问题,本文提出了一种基于多姿态角的分类学习策略,在 SA 图像分类前先对 SA 图像目标进行姿态角的角度估计,再将其送入到指定角度的基于 CNN 子模型的 SA 目标识别网络中,经过卷积池化等操作后,通过 Softmax 分类器来实现目标类别的判定,得到最后的分类结果。实验结果证明了姿态角信息在 SA-AT 中的有效性,更精确的姿态角信息有助于深度卷积网络对 SA 图像的精确分类。1原理与模型与自然光学图像不同,由于斑点的后向散射特性,同一类别目标的 SA 图像在不同姿态角下的后向散射强度差别较大,这给 SA 图像的目标识别问题带来一定的困难。在固定俯角下,同一目标在姿态角相差较大时,其 SA 图像存在明显的差异。图 1 显示了2S1、BMP2 和 BDM_2 在不同姿态角下的 SA 图像。在同一姿态角下,不同目标的 SA 图像样本之间的差异显然小于在不同姿态角下的同一目标 SA 图像样本之间的差异,这表明 SA 图像具有明显的姿态角敏感特性。图 1不同姿态角下的 SA 图像因此,精确的姿态角估计有利于提高目标分类的准确性和速度。若能先估计出测试样本姿态角的角度,并将测试样本匹配至对应姿态角区间内的子模型中,即可极大地降低 SA 图像分类的运算量,有利于后续 SA 图像分类工作。随着深度学习的不断发展,卷积神经网络以其局部权值共享的特殊结构在模式识别方面有着独特的优越性,其布局更接近于实际的生物神经网络,权值共享降低了网络的复杂性,特别是多维输入向量的图像可以直接输入网络这一特点避免了特征提取和分类过程中数据重建的复杂度。在 SA 图像目标分类与检测任务中,得益于局部连接和权值共享特性,卷积神经网络得到了广泛应用并表现出优异性能。本文搭建卷积神经网络模型如图 2 所示,包括卷积层、激活函数、池化层、全连接层和输出层等。其中,卷积层是 CNN 的核心部分,Convc dd 表示该卷积层包含 c 个尺寸为 dd 的卷积核;非线性激活函数选择为修正线性单元(elu);池化层选择最大池化操作,主要作用是将数据下采样,Max poolrr 则表示下采样窗口的尺寸大小;完全连接层可将输出的特征图转化成向量的形式;对于多分类问题,网络的最后部分选择 Softmax 函数实现目标类别判定。图 2卷积神经网络模型结构2基于姿态角估计的 SA 目标识别与分类方法21基于稀疏表示的 SA 目标姿态角估计首先,基于稀疏表示1415 的基本思想,对若干类目标的所有训练样本按照姿态角顺序构造全局字典A=A1,A2,AN,其中 N 表示训练样本总个数,则有argminx0st Ax=y(1)通过正交匹配追踪算法求解上式获得测试样本 y的最佳稀疏表示向量 x 后,利用 x 中的非零系数计算对应训练样本的重构误差 Ek,如式(2)所示462022,44(12)现 代 雷 达Ek=y Afk(x)2,k=1,2,K(2)式中:k 为非零整数,即 x 中非零值的个数;fk(x)为 x中第 k 个非零值,且该向量中其他位置元素全部为零。当训练样本与测试样本属于同一类别且姿态角角度相同时,可准确描述测试样本,相应的该训练样本的重构误差是所有训练样本中最小的。因此,拥有最小重构误差训练样本的姿态角角度为估角结果,表示为=Zpose(Ek)min(3)式中:Zpose为训练样本姿态角函数。姿态角的角度估计会有一定的角度误差,会对最终的目标识别率产生一定的影响。在估计出每一个测试样本的姿态角后,与其在数据集中获取的真实值比较可得到姿态角估计的绝对误差。减少姿态角估计误差能够有效减少分类判别错误的出现,得到更加准确的 SA 图像分类结果。22基于目标姿态角估计的 SA 图像识别分类本文基于姿态角估计的多姿态角 SA 图像目标识别分类模型如图 3 所示,将姿态角估计纳入 SA 图像分类模型中,充分利用了 SA 图像的姿态角敏感特性。首先,对训练样本进行预处理操作,获得尺寸相同的 SA 图像样本数据集,划分数据集后,搭建卷积神经网络,训练各个子模型,再将不同子模型融合成一种多姿态角 SA 图像分类模型。然后,使用稀疏表示的方法对预处理后的测试样本进行姿态角的角度估计,获取其姿态角信息后将其送入多姿态角模型中。最后根据估计的姿态角角度将待测样本匹配至相应的子模型进行识别,得到分类结果。图 3多姿态角 SA 图像目标识别

此文档下载收益归作者所有

下载文档
你可能关注的文档
收起
展开