分享
基于单向流模型的自适应张量链式学习算法.pdf
下载文档

ID:3080918

大小:1.86MB

页数:10页

格式:PDF

时间:2024-01-19

收藏 分享赚钱
温馨提示:
1. 部分包含数学公式或PPT动画的文件,查看预览时可能会显示错乱或异常,文件下载后无此问题,请放心下载。
2. 本文档由用户上传,版权归属用户,汇文网负责整理代发布。如果您对本文档版权有争议请及时联系客服。
3. 下载前请仔细阅读文档内容,确认文档内容符合您的需求后进行下载,若出现内容与标题不符可向本站投诉处理。
4. 下载文档时可能由于网络波动等原因无法下载或下载错误,付费完成后未能成功下载的用户请联系客服处理。
网站客服:3074922707
基于 单向 模型 自适应 张量 链式 学习 算法
2023 年 8 月 Journal on Communications August 2023 第 44 卷第 8 期 通 信 学 报 Vol.44 No.8基于单向流模型的自适应张量链式学习算法 马宝泽1,2,李国军1,2,邢隆1,2,叶昌荣1,2(1.重庆邮电大学光电工程学院,重庆 400065;2.重庆邮电大学超视距可信信息传输研究所,重庆 400065)摘 要:针对单向流模型中高阶张量在线分解问题,研究了一种自适应张量链式(TT)学习算法。首先,推导出单向流增量仅改变时序 TT 核的维度;然后,引入遗忘因子和正则项构造指数权重最小二乘目标函数;最后,利用块坐标下降学习策略分别估计时序和非时序 TT 核。对所提算法在增量大小、TT 秩、噪声和时变强度等方面分别进行了验证,结果表明,所提算法的平均相对误差和运算时间均小于对比算法,并在视频自适应分析中表现出优于对比算法的张量切片重构能力。关键词:自适应学习算法;张量链式分解;单向流模型;泛在数据流 中图分类号:TN911.6 文献标志码:A DOI:10.11959/j.issn.1000436x.2023154 Adaptive tensor train learning algorithm based on single-aspect streaming model MA Baoze1,2,LI Guojun1,2,XING Long1,2,YE Changrong1,2 1.School of Optoelectronic Engineering,Chongqing University of Posts and Telecommunications,Chongqing 400065,China 2.Lab of Beyond LoS Reliable Information Transmission,Chongqing University of Posts and Telecommunications,Chongqing 400065,China Abstract:An adaptive tensor train(TT)learning algorithm for the online decomposition problem of high-order tensors in single-aspect streaming model was investigated.Firstly,it was deduced that single-aspect streaming increment only changes the dimension of temporal TT core.Secondly,the forgetting factor and regularization item were introduced to construct the objective function of exponentially weighted least-squares.Finally,the block-coordinate descent learning strategy was used to estimate the temporal and non-temporal TT core tensors respectively.Simulation results demonstrate that the proposed algorithm is validated in terms of increment size,TT-rank,noise and time-varying intensity,the average relative error and operation time are smaller than that of the comparison algorithms.The tensor slice reconstruction abili-ty is superior than that of the comparison algorithms in the video adaptive analysis.Keywords:adaptive learning algorithm,tensor train decomposition,single-aspect streaming model,ubiquitous data stream 0 引言 随着传感器的广泛应用和物联网的迅猛发展,泛在的实时信号和数据不断产生,并催生了大数据智能、信息流处理、泛在感知等新兴研究热点,推动新生业态的数字、信息技术飞速发展。收稿日期:20230511;修回日期:20230716 通信作者:邢隆, 基金项目:国家重点研发计划基金资助项目(No.2019YFC1511300);国家自然科学基金资助项目(No.62201113,No.U22A2006);重庆市重点研发计划基金资助项目(No.cstc2021ycjh-bgzxm0072);重庆市教委科学技术研究基金资助项目(No.KJQN202300625)Foundation Items:The National Key Research and Development Program of China(No.2019YFC1511300),The National NaturalScience Foundation of China(No.62201113,No.U22A2006),Chongqing Key Research and Development Project(No.cstc2021ycjh-bgzxm0072),The Science and Technology Research Program of Chongqing Municipal Education Commission(No.KJQN202300625)28 通 信 学 报 第 44 卷 在数字经济赋能各行各业的大背景下,人们对高维实时/在线数据流自适应处理的需求处于持续增长状态1。特别是,大量的应用程序在某一维度上随着时间的推移将产生庞大的在线信号,及时有效地分析基于单向流模型的海量实时数据信息,实现信号在线自适应处理成为当前研究的热点2。然而,信号流的数据规模越来越大、传输速度越来越快、潜在成分越来越复杂,这些固有的问题都给实时信号流处理带来了挑战。此外,信息技术的飞速发展使数据形式逐渐趋向高维化,通常需用张量的形式表征3。因此,利用张量分析的相关技术处理实时的信号流数据成为一种潜在研究手段。张量分解技术已经得到了广泛的应用,成为解决高维信息分析处理的有效方法4-5,并成功应用于神经科学6-7、无线通信8-9、社交网络10-11等诸多领域。当使用张量表示信号/数据流时,张量分析技术通常被称为张量跟踪或自适应在线/实时流张量分解。CP(CANDECOMP/PARAFAC)分解12和Tucker分解13作为经典的张量分解方法,均为张量奇异值分解(SVD,singular value decomposition)的扩展形式。为了解决CP分解中的秩估计难题和克服Tucker分解中的数据维度灾难缺点,Cichocki 等14-15扩展了 2 种典型的多维张量分析模型,对张量网络进行了全面的研究。其中,张量链式(TT,tensor train)分解3,16表现出处理高阶张量的强大能力,成为多维信号处理和大规模数据分析领域的有效分析手段。然而,传统张量分解方法均属于批处理范畴,并不能对单向流模型下的多维信号流数据进行有效处理。面向多维信号流数据的自适应分解问题,Nion 和 Sidiropoulos17在传统 CP 分解的基础上提出了基于同步对角化和加权最小二乘准则的2种解决方案,为后续自适应张量学习算法的分析研究奠定了理论基础。随后,Mardani 等18提出了一种基于核范数正则化的指数加权最小二乘准则的在线子空间估计方法,通过跟踪低秩子空间揭示了潜在的高阶结构。Zhou 等19提出了一种有效的高阶在线学习算法,可实现具有任意阶数的动态张量 CP 分解,突破了张量阶数对自适应算法的限制。Nguyen 等20针对单向流的三阶张量,提出了基于交替最小二乘法结合牛顿型优化技术的快速自适应 CP 分解算法。Kasai21假设数据位于低秩线性子空间中,提出了基于张量 CP 分解的在线低秩子空间跟踪算法。文献17-21均是在传统 CP 分解的基础上探究的自适应张量分解方法,为克服 CP 分解中的秩估计难题,Liu 等22针对TT分解框架介绍了一种增量TT学习算法用于分解切块随时间递增的张量模型;Wang 等23则研究了能够分解工业物联网张量流的 TT 方法。然而,上述 2 种改进的 TT 分解技术可以归纳为增量式批处理学习方法,缺乏对张量切片数据的自适应处理能力,并且存在跟踪时变张量流数据较敏感的问题。为了解决单向流模型中的高阶张量实时分析问题,同时解决 CP 秩选取难题且具备计算时变切片增量的在线分析能力,本文研究了一种自适应 TT 学习算法。该算法在理论上可以处理任意阶数的单向张量流数据,推导出时变增量对时序 TT 核张量估计及 TT 非时序核张量更新的影响,构造具有遗忘因子和正则项的指数权重最小二乘目标函数,利用块坐标下降(BCD,block coordinate descent)学习策略依次估计出时序 TT核并对非时序 TT 核进行更新,从而实现对切片和切块等增量式实时数据的自适应分析研究。在模拟数据实验中,采用随机生成的四阶张量分别验证了所提算法在增量大小、不同 TT 秩、噪声强度和时变强度等条件下的重构性能,并且利用三阶张量进行了平均相对误差和平均运算时间的对比实验。此外,通过实测视频数据验证了多种算法对人体运动图像/视频实时分析的能力。1 问题描述 1.1 传统 TT 分解模型 在传统 TT 分解模型中,张量可以表示为一系列三阶张量1Nnn多线性乘积的缩并形式16。在不考虑加性噪声的情况下,张量和核张量1Nnn的关系可以表示为 1111223NN(1)其中,1nnnrIrn表示第n个 TT 核张量,1,2,nN,1n表示张量间的 mode-(,1)n缩约积,N表示核张量数,0 Niir表示 TT 秩集合,且满足01Nrr,即111Ir,1NNrIN。TT分解对高阶张量数据的处理具有以下优点:1)给定任意张量,能够找到一系列TT核1Nnn和TT秩满足TT分解的要求;2)相对于CP秩的第 8 期 马宝泽等:基于单向流模型的自适应张量链式学习算法 29 确定难题,TT分解可以稳定有效地估计TT核张量;3)TT分解为高阶张量提供了一种节省内存的表示方式,并且能够克服张量的维度灾难缺点。然而,传统的TT分解属于全量式批处理框架,在分析增量式自适应数据时存在重复计算和效率不高等问题。因此,在传统TT分解算法的基础上开发能够处理在线数据流的自适应张量分解方法具有重要的研究意义。1.2 单向流模型 在经典的在线应用场景中,研究仅一个模态时变的高阶数据流分解问题受到了越来越多的关注,将给定的N阶张量流分解为若干向量17、矩阵18-20、低秩张量22-23的集合是一项具有潜在研究价值的课题。不失一般性,假设流张量仅最后一个维度是时变的,其余维度均固定不变,则可以将流张量表示为11tNNIIIt,其中,tNI为张 量 的 第N个 维 度,用 于 表 征 时 变 增 量,,1,2,1nInN表示前N1个固定维度,该问题模型被称为高阶张量的单向流模型。与之对应的多向流模型可定义为11tttNNIIIt,表示具有不止一维的流数据随时间增加的情况,即高阶张量的时变维度,1,2,tnInN均可表征时变增量。此外,本文将针对单向流模型下实时张量数据的分析方法展开研究,且时序切片或时序切块的定义对于描述单向流模型的张量跟踪问题至关重要,为方便表述可将时序切片和时序切块统称为时序增量。定义 1 时序切片和时序切块(时序增量)。令第t时刻的流张量为11tNNIIIt,则定义11(:,:,)NIIt表示第个时序切片,且1tNI。当11ttNNII时,第t时刻的增式张量为时序切片;当11ttNNII时,第t时刻的增式 张 量 为 时 序 切 块,均 可 记 为t 111ttNNNIIII。因此,流张量t可看作由一系列时序切片1tNI构成,或者由1t和时序切块1tNtNItI构成。不失一般性,将时序切片和时序切块统称为时序增量,即存在1ttNNIIJ,并将时序增量t简记为t。换句话说,流张量t可以通过即将到来的时序增量t附加到之前沿时变维度的第1t 时刻观测张量t上的方式连接得到,即 11tttNttNNIIJ(2)其中,N表示张量沿N阶模态的连接。一般来说,时序增量t可以表示为 ttts(3)其中,t表示时序增量的低秩成分,t表示噪声张量,s表示噪声强度。低秩项t可以用向量、矩阵、核张量等形式表示,能够应用于静态和时变场景。综上所述,单向流张量跟踪问题可形式化表达如下:在第t时刻给定时序增量t和1t的先前估计(核张量或张量因子),则需要及时跟踪1tttN得到新的估计。1.3 自适应 TT 分解模型 在单向流模型中,实时张量t在含噪声环境下的TT分解形式可以表示为 1111223tttttNNs(4)假设TT核11Nnn为静态或变化缓慢,则可根据 式(2)和 式(3)得 出 时 序 低 秩 项1111223ttttNNG,1NrJtNG表示第N个TT核张量对应的时序增量因子矩阵,且tNG在1J 的情况下表示11Nr的向量,故可用tNg表示时序向量。由 式(3)可 知,时 序 增 量t可 改 写 为1111223tttttNNGs。为了增加自适应TT分解模型的时变表征能力,在非时序TT核张量的基础上增加时变项,即 1111111NNNtttkkkkkk。其中,表示时变因子;11Ntkk表示时变项,且与 11Ntkk维度一致。当N=3时,TT张量流分解的示意如图1所示。从图1可以看出,第N个TT核张量1tNNrItN可以由1tN和tNG构成,即1tttNNNG。图 1 TT 张量流分解示意 从理论上分析时序1tttNNNG的推导过程。令111211tttNN表 示 解 析 张 量,30 通 信 学 报 第 44 卷 11Ntnn表示在第1t 时刻张量1t对应的TT核集合。根据TT核11Nnn为静态或变化缓慢的三阶张量的假设,可得出1tt,即可认为在1t时刻和t时刻的解析张量是近似相等的。因此,可将第t时刻的张量t表示为 1111111-1tttttNNNttttNNNNNtttNNNGG(5)由图1和式(5)可知,只要估计出时序增量对应的因子矩阵1NrJtNG,就可以得到第t时刻的核张量11tNNrIJtN,而不必重复对111tNNrItN进行计算。当数据流规模比较大时,对tN整体进行估计存在计算复杂度高、存储要求大的缺点。因此,仅对时序增量对应的增量因子矩阵tNG进行估计的策略适用于大规模信号流的场景。该策略不仅降低了数据处理规模,而且分解后的核张量可采用分布式的存储方式。2 算法说明 2.1 构建目标函数 由于在线数据流固有的时变性和非平稳性,传统批处理TT分解方法在计算复杂度和数据存储方面没有优势,故需要研究一种能避免重复计算且有效跟踪的自适应高阶数据流分析方法。在自适应TT分解框架中,核张量的估计是研究重点。不考虑噪声的情况下,估计TT核张量 1Ntnn的广义目标函数可表示为 121111223FargminNtnnttttNN(6)根据式(2)和自适应策略17,20可以将式(6)目标函数改写为指数权重最小二乘的形式18,21,表示为 121111223F1121F1argmin+Ntnntt iiiiiNNiNttkkkG(7)其中,(0,1表示遗忘因子,旨在降低观测数据间距离的影响,并提高在动态环境中的跟踪速度;表示正则化参数,旨在控制相邻的连续时刻对应TT核的时变程度。当1且0时,式(6)和式(7)中的2个目标函数是等价的。2.2 核张量的学习策略 由于待求解的目标函数是一个非凸问题,因此可利用块坐标下降学习策略交替/递归更新核张量。将原目标函数分解为2个子问题,即分别对时序和非时序TT核张量进行求解。对每个子问题求解都需要在迭代时固定一部分参数,只针对一个变量进行优化,其余变量保持不变,然后交替求解,最终收敛得到最优解。因此,基于BCD学习框架,核张量的计算过程可以分为两部分。1)估计时序TT核tN:在已知前1t 时刻的全部TT核11Ntnn情况下,估计第t时刻的时序TT核1tttNNNG,其核心是计算tNG。2)更新非时序TT核 11Ntkk:在给定111Ntkk和tN的情况下,并行更新第t时刻的前1N个TT核。根据1tt可以得出,增量因子矩阵tNG的更新准则为 121FargminrJNNtttNNNGGG(8)在此基础上,除tN外的其余时序TT核张量 11Ntkk的更新准则可以表示为 1121111F1argminNkkttt iitikkkkkki(9)其中,和为虚拟张量,分别定义为 111111211111111211tttkkkittikkkNNNNG(10)此外,核张量更新问题的假设条件为:1)TT核11Nkk在1t和t这2个连续时刻的改变很小,即 11111NNttkkkk;2)TT秩向量0 Niir已知,且为时不变序列,其中01Nrr。2.3 具体步骤 2.3.1 估计时序TT核tN 在给定时序张量t和解析张量1t的情况下,第 8 期 马宝泽等:基于单向流模型的自适应张量链式学习算法 31 tNG可在式(8)的基础上加正则项的方式解决,即 12211FFargmin+rJNNtttNNNNGGGG(11)其中,1211FargminrJNNttNNGG旨在计算第t时刻对应观测与估计的时序切片间最小化残差,0表示正则化经验参数,2FNG旨在避免不适定的计算过程。为了便于分析,式(11)可改写为矩阵向量表示的形式。1221F2argmin+rJNNtttNNNGGYUGG(12)其中,11NIIJtY和1111NNIIrtU分别表示t和1t的展开矩阵。因此,可以将式(12)中矩阵NG的J个列分解为相关的J个切片,表示为正则最小二乘的形式,即 1122122(:,)argmin+rNjttttNjjjjgjGgyUgg(13)其中,11Nrtjg表示矩阵1NrJtNG的第j个列向量,111=(:,)NIIttjjyY表示矩阵11NIIJtY的第j个列向量,1,jJ。则式(13)的封闭解可以表示为 11 T111 T(:,)()()NttttttNjrjjGgUUIUy (14)在此基础上,时序TT核张量tN可以通过1tttNNNG不断学习更新。每次仅计算与时变增量数据对应的tNG即可更新tN,而不必重复计算1tN,避免了大规模在线高维数据的爆炸式增长带来的计算复杂度和存储压力。2.3.2 依次计算非时序TT核 11Ntkk 根据当前的时序TT核tN,通过最小化式(15)依次更新剩余的1N 个非时序TT核 11Ntkk,表示为 1121111F121FargminNkkttt iitikkkkkkitkk(15)其中,(0,1表示遗忘因子,表示正则化参数。为方便计算,将式(15)改写为矩阵形式,可表示为 112211FFargminIr rkk kkttt iikkiittkkkkkGGYGBAGG(16)其中,1kkkIrrtkG和1111kkkNIIIIIikY分别为tk和i的 展 开 矩 阵,令1=iitkkkWBA,则1111kkrIItkA和11kkNrIIikB分别是1tk和ik的展开矩阵。由于前1N个TT核的矩阵形式1kkkIrrtkG中,kI(1,1kN)是固定不变的,则可以采取与计算tNG类似的步骤,通过估计tkG对应的每个行向量11,(,:)kkrrttk mkmgG(1,kmI),进而得到1N 个tkG。将式(16)改写为tkG第m个行向量,tk mg的目标函数,可以表示为 11,2,2121,2argminr rk kk mttt iiik mk mk mkitk mk mggygWgg(17)其中,,(,:)iik mkymY。令式(17)的梯度为0,可推导出,tk mg,即 1T1T1,kkttttk mrrk mk mk mIgSgR(18)其中,解析矩阵分别为T,1ttt iiik mkkiSWW,T,1ttt iiik mkk miRW y。此外,矩阵,tk mS和,tk mR通过递归学习的方式更新,则学习准则可以表示为T1,ttttk mk mkkSSWW和1T,ttttk mk mkk mRRW y。根据式(18),,tk mg的更新规则可以表示为 11T1,T,+kktttttk mk mk mkk mtrrk mIggyWgS(19)其中,1,ttttk mk mk mkyygW,112,tttk mk mk mggg。因此,根据低空间复杂度的递归准则同步更新矩阵tkG,可以表示为 1T11TkktttttkkkkktrrkIGGY WGS(20)其中,1ttttkkkkYYGW,112tttkkkGGG。然32 通 信 学 报 第 44 卷 后,将式(20)得到的矩阵转变为三阶张量的形式,即可恢复核张量 111kkkNrIrtkk,其中01r。将第t次迭代更新后的非时序TT核张量 11Ntkk作为第t+1次迭代时估计时序TT核张量1tN的输入,依次估计出所有TT核张量。综上所述,所提的基于单向流模型的自适应TT学习算法估计核张量步骤如算法1所示。算法 1 核张量估计步骤 输入 时序张量t、解析张量1t、TT秩0 Niir、遗忘因子、正则化参数和 输出 时序TT核张量tN和非时序TT核张量 11Ntkk 初始化 非时序TT核张量 11Ntkk for t=1,2,3,1)估计时序TT核张量tN for j=1:J 根据式(14)计算第j个切片对应的因子矩阵(:,)tNjG;end for 根据1tttNNNG得到时序TT核tN 2)更新非时序TT核张量 11Ntkk for k=1:N1 根据式(19)计算第k个核张量展开矩阵的第m个行向量,tk mg 根据式(20)更新展开矩阵tkG 将tkG转 变 为 三 阶 张 量 的 形 式,即 111kkkNrIrtkk end for 3)将更新后的非时序TT核张量 11Ntkk 作为第t+1次迭代时步骤1)的输入,重复上述步骤直至迭代终止。end for 为了分析所提算法的计算复杂度,不妨假设张量的前1N维具有超对称结构,即11 NnnII,且TT秩11 Niirr。估计时序TT核张量tN和非时序TT核张量 11Ntkk的计算复杂度可以分别表示为12()NJIr和14(1)NNIr,则所提算法的计算复杂度可以表示为122(max,(1)NIrJNr。综上所述,在张量维度N和TT秩r固定的情况下,时序增量J的大小将决定算法的整体计算复杂度。此外,相较于传统批处理TT分解需要计算N阶数据3,16,所提算法仅处理1N 阶时序增量,具有计算复杂度和存储要求低的优点。3 实验分析 3.1 模拟数据仿真 为了验证所提算法对高阶张量数据流的自适应分解/张量跟踪能力,考虑在非平稳环境下分别从增量大小、不同TT秩、噪声强度和时变强度等角度出发对所提算法展开仿真实验。模拟仿真采用随机生成的四阶张量流数据,记为1234tIIIIt,TT秩 记 为123,r r r,时 序 增 量 可 以 表 示 为1111223344tttttt sG。其中,111Irt、1222rIrt、2333rIrt分别表示非时序TT核张量,34rJtG表示时序TT核张量对应的解析矩阵。此外,在非时序TT核张量上添加时变项可以分别表 示 为1111ttt、1222ttt、1333ttt,并采用相对误差准则评估张量重构的准确性,即 FF(,)-=(21)其中,表示的估计。相对误差准则越小,说明算法对张量流的跟踪、自适应分解、重构能力 越 强,反 之 亦 然。此 外,所 有 仿 真 均 在MATLAB2019a上进行,计算机配置为Intel(R)Core(TM)i7-10710U CPU 1.10 GHz 1.61 GHz,RAM为16 GB。令四阶张量的维度为1015201000,且假设最后一个维度时变,可称为时序点数,TT秩固定为555,噪声强度固定为3=10,时 变 强 度 固 定 为3=10,增 量 大 小 分 别 为=7,5,3,1J,并在时序点数为550时增加突变干扰,即此刻的突变强度为1。不失一般性,鉴于参数选取不是本文研究的重点内容,故设定所提算法的遗忘因子=0.5,正则化参数=1,=1,且仿真结果均是算法迭代30次的平均值。非平稳条件下,增量大小对算法性能的影响如图2所示。由图2可知,算法在=1J时比在=7,5,3J时的相对误差收敛速度更快且稳态误差更小。随第 8 期 马宝泽等:基于单向流模型的自适应张量链式学习算法 33 着时序增量的增加,张量分解相对误差收敛速度变慢、稳态误差也随之变大,说明所提算法在处理时序切块方面的性能还有待提升。此外,所提算法表现出对张量切片较强的学习能力,符合自适应算法对数据逐点处理的要求,故其余实验均采用张量切片=1J作为时序增量。图 2 增量大小对算法性能的影响 固定时序增量为时序切片,选取TT秩分别为222、444、666和888,其余实验条件和参数不变。TT秩对算法性能的影响如图3所示。由图3可知,当TT秩为888时,所提算法在时序突变后出现了难以收敛的情况,说明较大的TT秩会限制TT分解的低秩表征能力。此外,当TT秩较小时,算法虽然收敛速度快但稳态误差不理想波动较大。因此,综合考虑收敛速度和稳态误差两方面因素,TT秩的选取不宜过大或过小,需根据张量最小维度值选择,故令模拟数据仿真实验中的TT秩为555。图 3 TT 秩对算法性能的影响 为了验证所提算法的抗噪性,分别选取噪声强度4321=10,10,10,10 进行鲁棒性实验,其余仿真条件和参数不变。噪声强度对算法性能的影响如图4所示。由图4可知,选取的4个噪声强度对算法的收敛速度影响不大,其收敛曲线基本一致。但当1=10时,算法的稳态误差明显比其他噪声强度大,说明在噪声强度为432=10,10,10 时所提算法表现出了较好的鲁棒性。此外,所提算法对较大的噪声强度敏感,当噪声强度较小时算法性能变化不大,并且不同噪声强度下算法在突变前收敛速度也比较接近。图 4 噪声强度对算法性能的影响 固定实验的其余仿真条件和参数,分别选取时变强度4321=10,10,10,10 验证所提算法性能。时变强度对算法性能的影响如图5所示。由图5可知,时变强度越大,算法的稳态误差也越大,且在突变干扰后收敛速度主要受强时变的影响,如1=10。当43=10,10 时,算法的性能比较理想,因此不断提升算法的抗时变能力是自适应张量分解研究的优化方向。图 5 时变强度对算法性能的影响 34 通 信 学 报 第 44 卷 上述实验分别从增量大小、TT秩选取、噪声强度和时变强度几个方面验证了所提算法的性能,接下来将4种自适应张量分解方法作为对比算法,分别为PARAFAC-RLST17、PARAFAC-SDT17、TeCPSGD18和SOAP20,来分析随机生成的在线三阶张量。其中,张量维度为1502001200,噪声强度和时变强度均固定为310,增量=1J,在时序点数为600时增加突变干扰,且对比算法的秩均为10,所提算法的TT秩为1010。5种算法估计张量流的相对误差对比如图6所示。由图6可知,PARAFAC-RLST和PARAFAC-SDT具有相似的收敛速度和稳态误差,突变后的稳态误差均不理想,但突变前后的收敛速度较快。TeCPSGD收敛速度最慢,且稳态误差较大,算法 收 敛 困 难。SOAP在 突 变 前 表 现 出 与PARAFAC-RLST和PARAFAC-SDT相似的算法性能,但突变后相对误差几乎不变,说明SOAP方法不适用于存在突变的数据分析或者信号处理应用。相较于对比算法,所提算法在突变前后均表现出了良好的收敛速度和稳态误差。图 6 5 种算法估计张量流的相对误差对比 不同算法处理模拟数据的平均运算时间如图7所示。由图7可知,PARAFAC-RLST平均运算时间 最 长,其 次 分 别 为TeCPSGD、SOAP和PARAFAC-SDT,所提算法平均运算时间最短,说明BCD学习策略中仅处理时序增量的方式在算法运算时间方面具有优势。综上所述,不同于对比算法仅能处理三阶张量,所提算法能够处理任意阶数的张量数据。此外,综合考虑相对误差指标和平均运算时间可知,所提算法更新非时序TT核张量的并行学习策略不仅能够缩短算法运算时间,而且可以获取稳健的估计性能。图 7 不同算法处理模拟数据的平均运算时间 3.2 实测数据实验 将视频信号24作为实测数据验证算法张量重构性能,选取数据库中名为eli_wave1的视频作为自适应张量算法的输入信号。其中,视频属性包括:数据时长为5 s,帧率为25 frame/s,帧的高度为144,帧的宽度为180,每个像素的位数为24,视频格式为RGB24,则视频流中的帧数为125。为了更公平地验证算法性能,将每个视频帧数据对应的RGB图像转换为灰度图像,故输入信号的维度为144 180 125。将视频帧作为时序增量,不同算法处理视频数据的平均相对误差如图8所示。由图8可知,PARAFAC-RLST收敛速度较快,但相对误差较大;PARAFAC-SDT收敛速度最慢,在90帧左右才收敛;所提算法性 能 明 显 优 于 对 比 算 法,其 次 是SOAP和TeCPSGD。对比图6可知,实测数据的时变强度小,因而所有算法的性能曲线均波动小且平滑,且算法的相对误差明显变差。图 8 不同算法处理视频数据的平均相对误差 第 8 期 马宝泽等:基于单向流模型的自适应张量链式学习算法 35 不失一般性,选取各算法重构后张量的第80帧进行可视化,人体运动部分以虚线椭圆形标注,可视化灰度图如图9所示。所提算法重构的可视化灰度图与原始视频帧的灰度图最接近,基本可以分辨出人体轮廓。而SOAP算法仅能识别出人体位置,难以辨别动作状态,其余3种对比算法可视化灰度图较差。图9的可视化结果与图8中虚线方框对应,即当相对误差110时,自适应张量分解算法重构的张量切片可视化不理想,难以识别人体动作,不能应用于人体运动图像/视频实时分析。此外,所提算法在实测视频数据的实验中表现出了优于对比算法的张量切片重构能力。图 9 第 80 帧的可视化灰度图 4 结束语 由于泛在的实时信号/数据大多呈现高维结构,将给传统批处理张量分解方法和受阶数限制的自适应张量分析方法带来挑战,因此本文研究了一种基于单向流模型的自适应TT学习算法。通过推导单向流时序增量对TT核更新的影响,将核张量分为时序和非时序两类,并构造相应的目标函数利用BCD学习策略分别估计更新。实验表明,所提方法能够处理三阶和四阶的模拟数据,在平均相对误差和平均运算时间方面优于对比算法,且在视频实时分析研究中重构张量数据具有一定的意义。此外,在现有工作基础上研究基于多向流模型的自适应张量学习算法将是下一步重点探究方向。参考文献:1 KOLAJO T,DARAMOLA O,ADEBIYI A.Big data stream analysis:a systematic literature reviewJ.Journal of Big Data,2019,6(1):1-30.2 BAHRI M,BIFET A,GAMA J,et al.Data stream analysis:founda-tions,major tasks and toolsJ.Wiley Interdisciplinary Reviews:Data Mining and Knowledge Discovery,2021,11(3):1405.3 BENGUA J A,PHIEN H N,TUAN H D,et al.Efficient tensor com-pletion for color image and video recovery:low-rank tensor trainJ.IEEE Transactions on Image Processing,2017,26(5):2466-2479.4 SIDIROPOULOS N D,LATHAUWER L D,FU X,et al.Tensor de-composition for signal processing and machine learningJ.IEEE Transactions Signal Processing,2017,65(13):3551-3582.5 马宝泽,李国军,向翠玲,等.基于张量分析的欠定混合矩阵估计算法J.通信学报,2022,43(11):35-43.MA B Z,LI G J,XIANG C L,et al.Underdetermined mixing matrix estimation algorithm based on tensor analysisJ.Journal on Commu-nications,2022,43(11):35-43.6 THANH L T,DAO N T A,DUNG N V,et al.Multi-channel EEG epileptic spike detection by a new method of tensor decompositionJ.Journal of Neural Engineering,2020,17(1):016023.7 CONG F,LIN Q H,KUANG L D,et al.Tensor decomposition of EEG signals:a brief reviewJ.Journal of Neuroscience Methods,2015,248:59-69.8 NION D,SIDIROPOULOS N D.Tensor algebra and multidimensional harmonic retrieval in signal processing for MIMO radarJ.IEEE Transactions on Signal Processing,2010,58(11):5693-5705.9 CHEN H Y,AHMAD F,VOROBYOV S,et al.Tensor decompositions in wireless communications and MIMO radarJ.IEEE Journal of Se-lected Topics in Signal Processing,2021,15(3):438-453.10 NAKATSUJI M,ZHANG Q P,LU X H,et al.Semantic social net-work analysis by cross-domain tensor factorizationJ.IEEE Transac-tions on Computational Social Systems,2017,4(4):207-217.11 FERNANDES S,FANAEE-T H,GAMA J.Tensor decomposition for analysing time-evolving social networks:an overviewJ.Artificial In-telligence Review,2021,54(4):2891-2916.12 HARSHMAN R A.Foundations of the PARAFAC procedure:models and c

此文档下载收益归作者所有

下载文档
你可能关注的文档
收起
展开