2022
医学
专题
模糊
神经网络
资料
第十一讲,混合(hnh)智能控制,第一页,共四十五页。,模糊(m hu)神经网络,ANN(Artificial Neural Network)和 FLS(Fuzzy Logical Network)的比较(bjio):,相同之处 1)都是非数值型的非线性函数的逼近器、估计器、和动态系统;2)不需要数学模型进行描述,但都可用 数学工具(gngj)进行处理;3)都适合于VLSI、光电器件等硬件实现。,不同之处:工作机制方面:ANN大量、高度连接,按样本进行学习 FLS 按语言变量、通过隐含、推理和去 模糊获得结果。,第二页,共四十五页。,应用上:ANN偏重于模式识别(m sh sh bi),分类 FLN 偏重于控制,神经模糊网络把ANN的学习机制和FLN的人类思维和推理结合(jih)起来。,信息处理基本单元(dnyun)方面:ANN数值点样本,xi yi FLN模糊集合(Ai,Bi),运行模式方面:ANN学习过程透明,不对结构知识编码 FLN不透明,对结构知识进行编码,推理过程外界 可知,第三页,共四十五页。,结合方式有3种:1)神经模糊系统用神经元网络来实现模糊隶属函数、模糊推理,基本上(本质上)还是(hi shi)FLN。2)模糊神经系统神经网络模糊化,本质上还是ANN。3)模糊-神经混合系统二者有机结合。,基于(jy)神经网络的模糊逻辑运算,用神经网络实现(shxin)隶属函数,神经网络驱动模糊推理,神经网络的模糊建模,用神经网络实现隶属函数,第四页,共四十五页。,wc 和 wg 分别确定Sigmoid函数的中心(zhngxn)和宽度,S(x),M(x),L(x)组成大、中、小三个论域的隶属函数。,逻辑(lu j)“与”可以用Softmin 来实现:,第五页,共四十五页。,神经网络驱动(q dn)模糊推理(NDF),解决模糊推理中二个问题:缺乏确定的方法选择隶属函数(hnsh);缺乏学习功能校正推理规则。,用神经网络实现TS模型(mxng),称为神经网络驱动模糊推理(NDF).网络由二部分组成:,r为规则数,As是前提的模糊集合.NNs是模型的函数结构,由BP网络实现.,第六页,共四十五页。,学习的网络(wnglu)和训练的步骤,8,第七页,共四十五页。,2)将数据(shj)聚类.分成r 类.即有r 条规则.TRD的数据有N t 个.,3)训练规则的前提部分(b fen)网络NNm.。,4)训练(xnlin)对应于规则R s的后件部分(Then部分)NN s,6,6,第八页,共四十五页。,5)简化(jinhu)后件部分,在NN S的输入(shr)端,任意消去x p,比较误差:,6)最终(zu zhn)输出,6,第九页,共四十五页。,神经网络的模糊(m hu)建模,有三种(sn zhn)模型:,后件(hu jin)为恒值:,后件为一阶线性方程,第十页,共四十五页。,第十一页,共四十五页。,第十二页,共四十五页。,后件(hu jin)为模糊变量,第十三页,共四十五页。,第十四页,共四十五页。,第十五页,共四十五页。,应用(yngyng),假定要辨识(bin sh)的系统为,数据(shj)40 对,见表6.1,评判指标:,第十六页,共四十五页。,常 数 模 型,第十七页,共四十五页。,常 数 模 型 隶属函数(hnsh)的变化,第十八页,共四十五页。,非 线 性 模 型,第十九页,共四十五页。,非线性模型隶属函数(hnsh)的变化,第二十页,共四十五页。,语 言 输 出 模 型,第二十一页,共四十五页。,语 言 输 出 模 型隶属(lsh)函数的变化,第二十二页,共四十五页。,神经网络模糊化,模糊(m hu)感知器,精确划分的问题:每个分量都有同样的“重要性”,用在分类时,当分类有重叠(chngdi)时(如图),得不到很好的结果。,模糊感知器的基本思想:给隶属函数以一定的修正量,对隶属度接近0.5的样本(yngbn),在确定权值向量时,给予较小的影响:,第二十三页,共四十五页。,模糊感知器算法的问题:如何选择 m?如何给向量赋与模糊隶属函数(hnsh)?3)算法的终止判据.,回答:1)m 1;如隶属函数接近0.5.m 1;如隶属函数大于0.5.2)给向量(xingling)赋与模糊隶属函数的规则:,第二十四页,共四十五页。,其中(qzhng):,第二十五页,共四十五页。,3)算法(sun f)停止的判据:,产生(chnshng)良好的结果.,模糊(m hu)联想存储器,(FAM),双向联想存贮器的模糊化。把双向联想存贮器的权矩阵变换成模糊集合的关系(关联)矩阵。,(当分类错误,不确定向量不再产生另一迭代),第二十六页,共四十五页。,模糊关联矩阵M确定(qudng)有二种方法:1)相关最小编码,m i j=Min(a i,b j),假定(jidng)A=(0.2 0.5 0.9 1.0),B=(0.9 0.5 0.6),则:,2)相关乘积(chngj)编码,现在看,如果有A能否“回忆”起B?,AM=B;BMT=0.2 0.5 0.9 0.9=A A.,第二十七页,共四十五页。,现在(xinzi)看,如果有A能否“回忆”起B?,如果(rgu)AT=(0 0 0 1),则ATM=B;如果AT=(1 0 0 0)则ATM=(0.18 0.1 0.12)只回忆起B的20%。,由m个FAM组成(z chn)的FAM系统。,把m个关联(A k,B k)分别存到存贮库中,把m 个记忆向量叠加起来。即:,所记忆的隶属向量,等于各记忆向量的加权和:,如在输出论域Y=(y1,y2,y p)需要一个单独的输出,则要去模糊:,第二十八页,共四十五页。,A并行(bngxng)地加于各联想存贮器上。,第二十九页,共四十五页。,神经模糊(m hu)网络神经模糊控制器,第三十页,共四十五页。,对任一节点i 输入(shr)与输出的关系:,输入(shr):,输出(shch):,模糊自适应学习控制网络(FALCON),第三十一页,共四十五页。,29,第三十二页,共四十五页。,第5层:,第三十三页,共四十五页。,第三十四页,共四十五页。,学习(xux)(训练),目的(md):1)决定第2层和第4层中的隶属函数中心mij和宽度ij 2)决定第3层和第4层中的规则,自组织(zzh)学习,a)输入变量x1空间的划分,T(x1)T(x2)T(x n)=T(x),T(y i),b)第4层处在自上至下的模式,第三十五页,共四十五页。,第三十六页,共四十五页。,第三十七页,共四十五页。,d)确定连接和模糊(m hu)规则,e)规则合并(hbng),减少规则,1)有完全相同的结果2)前提一样的规则3)其它(qt)前提的并,组成了某些输入变量的整个术语的集合,第三十八页,共四十五页。,监督(jind)学习阶段,第三十九页,共四十五页。,第四十页,共四十五页。,神经(shnjng)-模糊网络(控制器)的参数学习(ANFIS),相应(xingyng)的ANFIS网络如图示。隶属函数为钟形:,第四十一页,共四十五页。,第四十二页,共四十五页。,要调节(tioji)的参数:,对后件参数,可以(ky)用Kalman滤波方法进行计算,此时,把后件参数排列成向量:,一组线性方程(xin xn fn chn)求解。,第四十三页,共四十五页。,第四十四页,共四十五页。,内容(nirng)总结,第十一讲。组成大、中、小三个论域的隶属函数。用神经网络实现TS模型,称为神经网络驱动(q dn)模糊推理(NDF).。学习的网络和训练的步骤。回答:1)m 1。由m个FAM组成的FAM系统。如在输出论域Y=(y1,y2,。目的:1)决定第2层和第4层中的隶属函数中心mij和宽度ij。2)决定第3层和第4层中的规则。T(y i)。e)规则合并,减少规则。一组线性方程求解,第四十五页,共四十五页。,