数模论坛

 找回密码
 注-册-帐-号
搜索
热搜: 活动 交友 discuz
楼主: b

数字神经网络系统

  [复制链接]
b
 楼主| 发表于 2004-5-28 02:31:45 | 显示全部楼层
<TABLE cellSpacing=0 cellPadding=0 width=778 border=0><TR><TD width="100%">< align=center>2.3 神经网络控制系统 </P></TD></TR><TR><TD width="100%" height=388><>神经网络控制系统在本质上讲是由神经网络构成控制器的控制系统。这种控制系统最吸引人之处是在于控制器具有学习功能,从而可以对不明确的对象进行学习式控制.使对象的输出与给定值的偏差趋于无穷小。 </P><>在这一节中,介绍几个实际具体的神经网络控制系统,井给出这些系统的控制结果。</P><P>2.3.1 离散系统的神经适应控制</P><P>对于一个线性离散系统,进行神经适应控制时,其系统的结构框图如图2—16所示。在图中可以看出:它包括神经网络控制器NC,对象仿真器PE和学习机构,以及被控对象。PE的输入有控制量u和对象输出量y两种,NC的输入则有给定值r、本身的输出U和对象输出量y。系统中的NC和PE都是在工作中执行联机学习的,这是一个实时学习的控制系统。</P><P align=center><img src="http://www.jgchina.com/ednns/ednnsbk/5.3/5.3.ht1.gif"></P><P align=center>图2-16  离散系统神经控制结构 </P></TD></TR><TR><TD width="100%" height=463><P>一、被控对象 </P><P>被控对象可以用下面线性方程表示</P><P>A(q<SUP>-1</SUP>)y(k)=B(q<SUP>-1</SUP>)u(k)            (2.52)</P><P>其中:</P><P>A(q<SUP>-1</SUP>)=1+a<SUB>1</SUB>q<SUP>-1</SUP>+...+a<SUB>n</SUB>q<SUP>-n</SUP>;</P><P>B(q<SUP>-1</SUP>)=b<SUB>1</SUB>q<SUP>-1</SUP>+...+b<SUB>m</SUB>q<SUP>-m</SUP>;</P><P>q<SUP>-1</SUP>是延时算子,q<SUP>-1</SUP>y(k)=y(k-1);</P><P>y(k)是输出;</P><P>u(k)是输入。</P><P>对于被控对象的表达式,它满足下列3个条件:</P><P>1.m,n是有上界的,并且已知。</P><P>2.B(q-1)是一个稳定的多项式。</P><P>3.系数b<SUB>1</SUB>≠0。</P><P>m.n有界,则可以明确用其上界值构造NC和PE的输入,从而得出具体的NC和PE,便于实际有效训练。B(q-1)稳定,则可保证控制器的闭环控制稳定。b<SUB>1</SUB>≠0,是控制器所需的。</P><P>二、对象仿真器和神经控制器</P><P>对象仿真器PE和神经控制器NC都用线性神经网络构成。而且在结构上,都是一个输入层和一个输出层,而没有中层隐层的2层神经网络所构成。</P><P>1.对象仿真器PE</P><P>对象仿真器PE的结构如图2—17所示。在图中可看出:PE的输入向量为x(k-1),输出为y(k).权系数向量为w(k-1)。</P><P align=center><img src="http://www.jgchina.com/ednns/ednnsbk/5.3/5.3.ht2.gif"></P><P align=center>图2-17  对象仿真器PE的结构 </P></TD></TR><TR><TD width="100%" height=116><P>考虑在k时刻,则这时有输入向量x(k) </P><P>x(k)=[x<SUB>1</SUB>(k),x<SUB>2</SUB>(k),…,x<SUB>n</SUB>(k),x<SUB>n+1</SUB>(k),…,x<SUB>n+m</SUB>(k)]<SUP>T</SUP>
     =[-y(k),…,-y(k-n+1),u(k),…,u(k-m+1)]<SUP>T</SUP>               (2.53)</P><P>而PE的权系数向量为w(k)</P><P>w(k)=[w<SUB>1</SUB>(k),w<SUB>2</SUB>(k),…,w<SUB>n</SUB>(k),w<SUB>n+1</SUB>(k),…,w<SUB>n+ m</SUB>(k)]<SUP>T</SUP>         (2.54)</P><P>由于对象仿真器PE是由线性神经网络构成,其输出y由下式求出</P><TABLE cellSpacing=0 cellPadding=0 width="80%" align=center border=0><TR><TD width="71%"><img src="http://www.jgchina.com/ednns/ednnsbk/5.3/5.3.ht3.gif"></TD><TD width="29%">(2.55)</TD></TR><TR><TD width="71%"><FONT size=2>在实时训练中,权系数采用Widrow-Hoff规则进行更新,即</FONT></TD><TD width="29%"></TD></TR><TR><TD width="71%"><img src="http://www.jgchina.com/ednns/ednnsbk/5.3/5.3.ht4.gif"></TD><TD width="29%">(2.56)</TD></TR></TABLE></TD></TR><TR><TD width="100%" height=243><P>其中:α∈(0,2),是衰减因子: </P><P>E是接近于0的小数,用于防止在x<SUP>T</SUP>(k)x(k)等于0时分母为0;</P><P>e(k+1)是输出偏差,e(k+1)=y(k+1)-y<SUB>E</SUB>(k+1)。</P><P>利用式(2.56)进行学习训练,最终目的就是使输出偏差e(k+1)最小化。而且,当e(k+1)——U时,从式(2.56)看出有w(k+1)=w(k)。</P><P>2.神经控制器NC</P><P>神经控制器NC也是二层神经网络构成,输入端有n+m个,输出端有一个。它的结构如图2—18所示。输入为z(k),输出为控制量u(k)。</P><P>在k时刻,NC的输入为z(k).有</P><P>z(k)=[z<SUB>1</SUB>(k),z<SUB>2</SUB>(k),…,z<SUB>n+1</SUB>(k),z<SUB>n+2</SUB>(k),…,z<SUB>n+m</SUB>(k)]<SUP>T</SUP>
     =[r(k+1),-x<SUB>1</SUB>(k),…,-x<SUB>n</SUB>(k),-x<SUB>n+2</SUB>(k),…,x<SUB>n+m</SUB>(k)]<SUP>T</SUP>
     =[r(k+1),y(k)…,y(k-n+2),-u(k-1),…,-u(k-m+1)]<SUP>T</SUP>         (2.57)</P><P>注意在式(2.57)中没有-Xn+1(k),即y(k-n-1)这项。</P><P>神经控制器NC的权系数向量为W'(k)有</P></TD></TR></TABLE>
b
 楼主| 发表于 2004-5-28 02:32:20 | 显示全部楼层
<TABLE cellSpacing=0 cellPadding=0 width=778 border=0><TR><TD width="100%" height=243><>神经控制器NC的权系数向量为W'(k)有</P><TABLE cellSpacing=0 cellPadding=0 width="80%" align=center border=0><TR><TD width="77%"><img src="http://www.jgchina.com/ednns/ednnsbk/5.3/5.3.ht5.gif"></TD><TD width="23%">(2.58)</TD></TR><TR><TD width="77%"><FONT size=2>显然.NC的权系数向量w’(k)是PE的权系数向量W(k)的函数。
由NC产生的控制输出信号u(k),由下式求出:</FONT></TD><TD width="23%"></TD></TR><TR><TD width="77%"><img src="http://www.jgchina.com/ednns/ednnsbk/5.3/5.3.ht6.gif"></TD><TD width="23%">(2.59)</TD></TR></TABLE></TD></TR><TR><TD width="100%">< align=center><img src="http://www.jgchina.com/ednns/ednnsbk/5.3/5.3.ht7.gif"></P>< align=center>图2-18  神经控制器NC的结构 </P></TD></TR><TR><TD width="100%"><P>3.控制系统的信息处理过程 <P>在图2—16所示的神经网络控制系统中,信息的处理过程和步骤如下:</P><P>(1)取给定值r(k+1),取对象输出值y(k)。</P><P>(2)用原有权系数向量W(k-1),通过式(2.55)计算对象仿真器PE的预测输出y<SUB>E</SUB>(k)</P><P>(3)计算偏差e(k)=y(k)—y<SUB>E</SUB>(k),并且利用式(2.56)计算出新的权系数向量W(k)。</P><P>(4)用式(2.58)更新神经控制器NC的权系数向量w'(k)。</P><P>(5)神经控制器Nc通过式(2.59)产生控制量u(k)。</P><P>三、控制系统的闭环性能分析</P><P>在确立闭环系统的性能之前先考虑对象仿真器的一些性质。</P><P>设W<SUB>0</SUB>是对象仿真器PE训练之后得到的最终权系数向量</P><P>W<SUB>0</SUB>=[W<SUB>01</SUB>,W<SUB>02</SUB>,...,W<SUB>0n+m</SUB>]<SUP>T</SUP>                 (2.60)</P><P>则W<SUB>0</SUB>满足下式</P><DIV align=center><CENTER><TABLE cellSpacing=0 cellPadding=0 width="80%" border=0><TR><TD width="70%"><img src="http://www.jgchina.com/ednns/ednnsbk/5.3/5.3.ht8.gif"></TD><TD width="30%">(2.61)</TD></TR></TABLE></CENTER></DIV></TD></TR><TR><TD width="100%" height=498><P>也即是说在权系数为W<SUB>0</SUB>向量时,PE能精确预测对象的输出。 </P><P>引理:由式(2.53)—(2.55)所表述的对象仿真器PE,满足如下性质:</P><P><img src="http://www.jgchina.com/ednns/ednnsbk/5.3/5.3.ht9.gif"></P><P>证明:</P><P>考虑权系数误差ΔW(k)</P><P>ΔW(k)=W(K)-W<SUB>0</SUB>         (2.62)</P><P>根据式(2.55),(2.6I),(2.62),则系统输出误差e(k)可以表达为权系数误差ΔW的函数,即</P><P><img src="http://www.jgchina.com/ednns/ednnsbk/5.3/5.3.ht10.gif"></P><P>      =-X<SUP>T</SUP>(k-1)ΔW(k-1)                       (2.63)</P><P>把式(2.56)两边减去W<SUB>0</SUB>,可求出权系数误差,则得:</P><TABLE cellSpacing=0 cellPadding=0 width="80%" align=center border=0><TR><TD width="77%"><img src="http://www.jgchina.com/ednns/ednnsbk/5.3/5.3.ht11.gif"></TD><TD width="23%">(2.64)</TD></TR><TR><TD width="77%"><FONT size=2>把上式(2.64)两边平方有</FONT></TD><TD width="23%"></TD></TR><TR><TD width="100%" colSpan=2><DIV align=center><img src="http://www.jgchina.com/ednns/ednnsbk/5.3/5.3.ht12.gif"></DIV></TD></TR><TR><TD width="100%" colSpan=2><P align=right>(2.65) </P></TD></TR></TABLE></TD></TR><TR><TD width="100%" height=127><P>从式(2.63)可知 </P><P>      e(k)=-X<SUP>T</SUP>(k-1)ΔW(k-1)</P><P>即有</P><P><img src="http://www.jgchina.com/ednns/ednnsbk/5.3/5.3.ht13.gif"></P><P>代入式(2.65),有</P><DIV align=center><CENTER><TABLE cellSpacing=0 cellPadding=0 width="80%" border=0><TR><TD width="50%"><img src="http://www.jgchina.com/ednns/ednnsbk/5.3/5.3.ht14.gif"></TD><TD width="50%">(2.66)</TD></TR></TABLE></CENTER></DIV></TD></TR><TR><TD width="100%" height=69><P>从式(2.66)中,有 </P><P>α∈(O,2),故即α>0;</P><P>X(k-1)/XT(k-1),XT(k-1)X(k-1)都为正;</P><P>e(k)2也必定大于0,ε是趋于0的正数。</P><P>所以,在式(2.66)中</P><DIV align=center><CENTER><TABLE cellSpacing=0 cellPadding=0 width="80%" border=0><TR><TD width="75%"><img src="http://www.jgchina.com/ednns/ednnsbk/5.3/5.3.ht15.gif"></TD><TD width="25%">(2.67)</TD></TR></TABLE></CENTER></DIV></TD></TR><TR><TD width="100%" height=286><P>的结果确定了[ΔW(k)]<SUP>2</SUP>-[ΔW(k-1)]<SUP>2</SUP>的正负。 </P><P>令 H=x<SUP>T</SUP>(k-1)x(k-1)</P><P>则式(2.67)可写为:</P><P><img src="http://www.jgchina.com/ednns/ednnsbk/5.3/5.3.ht16.gif"></P><P>则有</P><P><img src="http://www.jgchina.com/ednns/ednnsbk/5.3/5.3.ht17.gif"></P><P><img src="http://www.jgchina.com/ednns/ednnsbk/5.3/5.3.ht18.gif"></P><P>从而可知</P><P><img src="http://www.jgchina.com/ednns/ednnsbk/5.3/5.3.ht19.gif"></P><P>最后有</P><P>[ΔW(k)]<SUP>2</SUP>-[ΔW(k-1)]<SUP>2</SUP>&lt;0           (2.68)</P><P>式(2.68)说明引理的性质(1)成立。</P><P>根据性质(1),则当k——∞,则有w(k)=W<SUB>0</SUB>.故而在式(2.66)中两边都为0。这也就是必定有</P><DIV align=center><CENTER><TABLE cellSpacing=0 cellPadding=0 width="80%" border=0><TR><TD width="50%"><img src="http://www.jgchina.com/ednns/ednnsbk/5.3/5.3.ht20.gif"></TD><TD width="50%">(2.69)</TD></TR></TABLE></CENTER></DIV></TD></TR><TR><TD width="100%" height=414><P>可见,引理的性质(2)成立。 </P><P>证毕。</P><P>有了上面的引理,就可以给出由式(2.53)—(2.59)组成的控制结构对对象式(2.52)执行适应控制的闭环性质定理。</P><P>定理:在对象由式(2.52)描述的控制中,式(2.53)—(2.59)构成的适应控制有如下的闭环性质:</P><P>(1)输入信号u(t),输出信号y(t)都是有界的。</P><P><img src="http://www.jgchina.com/ednns/ednnsbk/5.3/5.3.ht21.gif"></P><P>证明:</P><P>设系统的跟踪误差用e'(k)表示</P><P>e'(k)=y(k)-r(k)               (2.70)</P><P>y(k)由式(2.61)给出。</P><P>r(k)可由式(2.57),(2.58),(2.59)求出,先用W<SUB>n+1</SUB>(k)乘〔2.59)两边,则有</P><P>W<SUB>n+1</SUB>(k-1)u(k-1)=r(k)+W<SUB>1</SUB>(k-1)(-X<SUB>1</SUB>(k-1))+.....,+W<SUB>n</SUB>(k-1)(-X<SUB>n</SUB>(k-1))+W<SUB>n+2</SUB>(k-1)(-X<SUB>n+2</SUB>(k-1))+......,Wn+m(k-1)(-Xn+m(k-1))</P><P>整理后有</P><P>r(k)=W<SUB>1</SUB>(k-1)X<SUB>1</SUB>(k-1)+......,+W<SUB>n</SUB>(k-1)X<SUB>n</SUB>(k-1)+W<SUB>n+1</SUB>(k-1)u(k-1)+W<SUB>n+2</SUB>(k-1)X<SUB>n+2</SUB>(k-1)+......,+W<SUB>n+m</SUB>(k-1)X<SUB>n+m</SUB>(k-1)</P><P align=right>(2.71)    </P><P>由于 u(k-1)=Xn+1(k-1)</P><P>故而有</P><TABLE cellSpacing=0 cellPadding=0 width="80%" align=center border=0><TR><TD width="71%"><img src="http://www.jgchina.com/ednns/ednnsbk/5.3/5.3.ht22.gif"></TD><TD width="29%">(2.72)</TD></TR><TR><TD width="71%"><FONT size=2>从式(2.61)和式(2.72),则有</FONT></TD><TD width="29%"></TD></TR><TR><TD width="71%"><img src="http://www.jgchina.com/ednns/ednnsbk/5.3/5.3.ht23.gif"></TD><TD width="29%">(2.73)</TD></TR><TR><TD width="71%"><FONT size=2>从引理的性质(2)有</FONT></TD><TD width="29%"></TD></TR><TR><TD width="71%"><img src="http://www.jgchina.com/ednns/ednnsbk/5.3/5.3.ht25.gif"></TD><TD width="29%">(2.74)</TD></TR></TABLE></TD></TR><TR><TD width="100%" height=2><P>只要证明x<SUP>T</SUP>(k-1)x(k-1)是有界的,就可以证明e(∞)=0,也就可以证明定理中的性质(2)。 </P><P>下面证明‖x(k-1)‖有限。</P><P>从对象式(2.52)有关条件,对象的输入输出信号满足</P><TABLE cellSpacing=0 cellPadding=0 width="80%" align=center border=0><TR><TD width="71%"><img src="http://www.jgchina.com/ednns/ednnsbk/5.3/5.3.ht24.gif"></TD><TD width="29%">(2.75)</TD></TR></TABLE></TD></TR><TR><TD width="100%" height=39><P>其中:1≤i≤k;m<SUB>1</SUB>&lt;∞;m<SUB>2</SUB>&lt;∞。 </P><P>根据式(2.52)对象的满足条件,从式(2.53)则有</P><TABLE cellSpacing=0 cellPadding=0 width="80%" align=center border=0><TR><TD width="71%"><img src="http://www.jgchina.com/ednns/ednnsbk/5.3/5.3.ht26.gif"></TD><TD width="29%">(2.76)</TD></TR><TR><TD width="71%"><FONT size=2>既然,给定信号r是有界的,所以跟踪误差有</FONT></TD><TD width="29%"></TD></TR><TR><TD width="71%"><img src="http://www.jgchina.com/ednns/ednnsbk/5.3/5.3.ht27.gif"></TD><TD width="29%">(2.77)</TD></TR></TABLE></TD></TR><TR><TD width="100%" height=6><P>从而有|e'(k)|+m3≥|y(k)| </P><P>由此,式(2.76)可以写为:</P><TABLE cellSpacing=0 cellPadding=0 width="80%" align=center border=0><TR><TD width="86%"><img src="http://www.jgchina.com/ednns/ednnsbk/5.3/5.3.ht28.gif"></TD><TD width="14%">(2.78)</TD></TR></TABLE></TD></TR><TR><TD width="100%" height=70><P>其中:0≤C<SUB>1</SUB>≤∞;0≤C<SUB>2</SUB>≤∞。 </P><P>假设跟踪误差e'(k)有界,则从式(2.78)可知:‖x(k)‖同样有界;这样从式(2.74)可知</P><TABLE cellSpacing=0 cellPadding=0 width="80%" align=center border=0><TR><TD width="71%"><img src="http://www.jgchina.com/ednns/ednnsbk/5.3/5.3.ht30.gif"></TD><TD width="29%">(2.79)</TD></TR><TR><TD width="71%"><FONT size=2>显然,定理的性质(2)成立。
假设跟踪误差e'(k)无界,则存在时刻序列|kn|,令</FONT></TD><TD width="29%"></TD></TR><TR><TD width="71%"><img src="http://www.jgchina.com/ednns/ednnsbk/5.3/5.3.ht29.gif"></TD><TD width="29%">(2.80)</TD></TR></TABLE></TD></TR><TR><TD width="100%"><P>取m4=max(1,ε) </P><P>考虑</P><P><img src="http://www.jgchina.com/ednns/ednnsbk/5.3/5.3.ht31.gif"></P><TABLE cellSpacing=0 cellPadding=0 width="80%" align=center border=0><TR><TD width="70%"><img src="http://www.jgchina.com/ednns/ednnsbk/5.3/5.3.ht32.gif"></TD><TD width="30%">(2.81)</TD></TR><TR><TD width="70%"><FONT size=2>对式(2.81)取极限有</FONT></TD><TD width="30%"></TD></TR><TR><TD width="70%"><img src="http://www.jgchina.com/ednns/ednnsbk/5.3/5.3.ht33.gif"></TD><TD width="30%">(2.82)</TD></TR></TABLE></TD></TR><TR><TD width="100%" height=1174><P>这个极限存在说明e'(K)有界,假设其无界不成立。 </P><P>由于e'(k)有界,故式(2.79)是必定成立的。由于e'(k)=y(k)-r(k),而r(k)有界,所以,y(k)有界。从式(2.75)可知u(k)也有界。则定理的两个性质成立。</P><P>证毕。</P></TD></TR></TABLE>
b
 楼主| 发表于 2004-5-28 02:32:34 | 显示全部楼层
<TABLE cellSpacing=0 cellPadding=0 width=778 border=0><TR><TD width="100%" height=1174><>四、系统实际运行情况</P><>当对象的结构不同时,可以用于检验图2-16所示的神经适应控制系统的运行结果。对象仿真器PE,神经控制器NC分别由式(2.52)-(2.55)和式(2.57)-(2.59)所描述;学习时采用式(2.56)和式(2.58)。</P><>1.对有噪声的稳定对象的控制</P><P>对象由下式表示</P><P><img src="http://www.jgchina.com/ednns/ednnsbk/5.3/5.3.ht34.gif"></P><P>设对象仿真器PE和神经控制器NC输入的向量为6个元素,有n=m=3。在训练学习时PE的权系数向量更新取α和ε的值如下: <P><img src="http://www.jgchina.com/ednns/ednnsbk/5.3/5.3.ht35.gif"> <P>权系数向量的初始值取 <P>W(0)=[0,0,0,1,0,0]<SUP>T</SUP> <P align=center><img src="http://www.jgchina.com/ednns/ednnsbk/5.3/5.3.ht36.gif"> <P align=center>图2-19 给定值r和对象输出y <P align=center><img src="http://www.jgchina.com/ednns/ednnsbk/5.3/5.3.ht37.gif"> <P align=center>图2-20 NC产生的控制信号u <P align=center><img src="http://www.jgchina.com/ednns/ednnsbk/5.3/5.3.ht38.gif"> <P align=center>图2-21 PE的学习过程W(k)的变化 </P></TD></TR><TR><TD width="100%" height=1319><P>噪声是平均值为零的高斯白噪声。 </P><P>给定输入r是幅值为1的方波;每方波周期采样80次。</P><P>控制结果和情况如图2—19和图2—20所示。其中图2—19是对象输出和给定值的情况;图2—20是NC产生的控制信号u(k)。
很明显,对象仿真器能正确地预测对象的动态过程。</P><P>图2—21给出了对象仿真器PE的学习过程。</P><P>2.对不稳定对象的控制</P><P>不稳定对象由下式表示</P><P><img src="http://www.jgchina.com/ednns/ednnsbk/5.3/5.3.ht39.gif"></P><P>在系统中,PE和NC的输入都采用6个元素的向量,故n=m=3。在训练学习时.PE权系数向量更新取α和ε的值为</P><P><img src="http://www.jgchina.com/ednns/ednnsbk/5.3/5.3.ht40.gif"></P><P>权系数向量初始化取值为</P><P>W(0)=[0,0,0,1,0,0]<SUP>T</SUP></P><P>给定输入r为幅度为1的方波,方波每周期采样80次。</P><P>控制情况和结果以及邢学习时的w(k)变化情况分别如图2—22,图2—23,图2—24所示。对于不稳定对象,显然在过渡过程中有较大的超调;但在PE学习之后,对象输出能跟踪给定r。</P><P align=center><img src="http://www.jgchina.com/ednns/ednnsbk/5.3/5.3.ht41.gif"></P><P align=center>图2-22 给定r和对象输出y的波形</P><P align=center><img src="http://www.jgchina.com/ednns/ednnsbk/5.3/5.3.ht42.gif"></P><P align=center>图2-23 NC产生的控制信号U的波形</P><P align=center><img src="http://www.jgchina.com/ednns/ednnsbk/5.3/5.3.ht43.gif"></P><P align=center>图2-24 PE学习时W(k)的变化情况 </P></TD></TR></TABLE>
b
 楼主| 发表于 2004-5-28 02:33:06 | 显示全部楼层
<TABLE height=71 cellSpacing=0 cellPadding=0 width=778 border=0><TR><TD width="100%" height=11><>2.3.2 水温神经网络控制系统</P></TD></TR><TR><TD width="100%" height=37><>温度控制是人们在工业.家庭生活等各个领域经常遇到的控制系统。水温控制是温度控制的一种类型。采用神经网络对水温控制是一种新的控制方式和控制手段。在这个水温控制系统中,神经网络的训练采取第2.2节神经网络控制器与学习中所介绍的联机学习方法与算法。 </P><>一、温度控制系统的模型</P><P>对一个连续温度控制系统,可以用下面数学表达式来描述</P><TABLE cellSpacing=0 cellPadding=0 width="80%" align=center border=0><TR><TD width="82%"><img src="http://www.jgchina.com/ednns/ednnsbk/5.3.2/5.3.2.10.gif"></TD><TD width="18%">(2.83)</TD></TR></TABLE></TD></TR><TR><TD width="100%" height=18><P>其中:t是时间; </P><P>y(t)是输出温度;</P><P>f(t)是加给系统的热量;</P><P>Y<SUB>o</SUB>是室温,一胶为常数;</P><P>c是系统的热容量;</P><P>R是系统边界与周围的热阻。</P><P>假定在式(2—83)中,RC是常数,从阶跃响应准则可以得到其对应的离散系统脉冲传递函数的表达式:</P><TABLE cellSpacing=0 cellPadding=0 width="80%" align=center border=0><TR><TD width="82%"><img src="http://www.jgchina.com/ednns/ednnsbk/5.3.2/5.3.2.11.gif"></TD><TD width="18%">(2.84)</TD></TR><TR><TD width="82%"><FONT size=2>其中:u(k)为系统输人;
y(k)为系统输出;
T<SUB>s</SUB>为采样周期;
a(T<SUB>s</SUB>)和b(T<SUB>8</SUB>)由下式决定:</FONT></TD><TD width="18%"></TD></TR><TR><TD width="82%"><img src="http://www.jgchina.com/ednns/ednnsbk/5.3.2/5.3.2.12.gif"></TD><TD width="18%">(2.85)</TD></TR></TABLE></TD></TR><TR><TD width="100%" height=7><P>在式(2.85)中。α,β是由R,C确定的常数。 <P>在一般温度控制中,输出温度不允许超过一定的极限值,也即是(2.83)所描述的系统具有饱和的非线性特性。故控制对象可以表达为:</P><TABLE cellSpacing=0 cellPadding=0 width="80%" align=center border=0><TR><TD width="82%"><img src="http://www.jgchina.com/ednns/ednnsbk/5.3.2/5.3.2.13.gif"></TD><TD width="18%">(2.86)</TD></TR></TABLE></TD></TR><TR><TD width="100%" height=261><P>对于一个具体的系统,有 </P><P>α=1.00151*10<SUP>-4</SUP>       β=8.67973*10<SUP>-3</SUP></P><P>r=40.0               Y<SUB>o</SUB>=25.0℃</P><P>0≤u(k)≤5            T<SUB>s</SUB>&gt;10S</P><P>这是一个实际水缸对象得到的有关参数。</P><P>把式(2.15)和式(2.86)作比较;显然有p=1,Q=0。根据所选择的参数,系统是一个水缸的单输入单输出温度控制系统;这个系统在室温到70℃之间呈现出线性特性,而再升到80℃左右则变成非线性同时达到饱和。</P><P>二、水缸温度控制系统和神经网络结构</P><P>水缸温度控制系统的结构如图2—25所示,它由水缸,计算机,接口部件,检测器,功率控制部件和加热器组成。</P><P align=center><img src="http://www.jgchina.com/ednns/ednnsbk/5.3.2/5.3.2.14.gif"></P><P align=center>图2-25 水缸温度控制系统结构</P></TD></TR><TR><TD width="100%" height=10><P>给定信号输入计算机作为控制的期望信号。计算机通过A/D转换等接口部件接收温度检测器所检测的结果,在计算机内部以软件算法执行学习以及神经网络的处理,产生控制信号去控制功率驱动部件,再使加热器以恰当的功率加热;加热器以PWM方式执行功率调节。 </P><P>温度检测器为半导体温度传感器件,A/D转换器为8位,计算机产生的控制信号在0—5V之间,它用于产生PWM的脉宽,加热器功率为1.3KW,水缸是一个含7升水的小水缸。</P><P>考虑神经网络组成的对象仿真器PE和神经控制器NC都用4层的多层神经网络组成。通过式(2.86)可知,神经网络有两个输入,一个为y(k),一个为u(k)。这两个输入都归一化到-1和+1之间。每个隐层含有6个传递函数为s函数的神经元。而输出层则是一个线性神经元。所以,PE和NC的结构如图2—26中所示</P><P align=center><img src="http://www.jgchina.com/ednns/ednnsbk/5.3.2/5.3.2.15.gif"></P><P align=center>图2-26 PE和NC的结构</P></TD></TR><TR><TD width="100%" height=196><P>在计算机中.神经网络控制器是通过软件算法实现的。在整个系统中,神经网络控制器和对象仿真器的位置和作用如图2—27中所示。从图中可以看出对象仿真器PE的输入是u(k)和y(k),而输出只有一个y<SUB>E</SUB>;神经控制器NC也有两个输入,分别为r(k+1)和u(k-1),而输出则是u(k)。很明显,这是一种间接适应控制结构,采用这种结构有利于对水缸的特性进行学习。 </P><P align=center><img src="http://www.jgchina.com/ednns/ednnsbk/5.3.2/5.3.2.16.gif"></P><P align=center>图2-27 系统的神经网络控制结构</P></TD></TR><TR><TD width="100%" height=67><P>对于图2—26所示的对象仿真器邢和神经网络控制器NC,在实时学习时采用下面规则对权系数进行修改,即 </P><TABLE cellSpacing=0 cellPadding=0 width="80%" align=center border=0><TR><TD width="79%"><img src="http://www.jgchina.com/ednns/ednnsbk/5.3.2/5.3.2.17.gif"></TD><TD width="21%">(2.87)</TD></TR><TR><TD width="79%"><FONT size=2>也即是新的权系数Wn+1为</FONT></TD><TD width="21%"></TD></TR><TR><TD width="79%"><img src="http://www.jgchina.com/ednns/ednnsbk/5.3.2/5.3.2.18.gif"></TD><TD width="21%">(2.88)</TD></TR></TABLE></TD></TR><TR><TD width="100%" height=685><P>其中:n是训练学习次数序号: </P><P>w是权系数;</P><P>η是学习速率;η>O;</P><P>u&gt;0,是修正系数;</P><P>J是误差函数。</P><P>在对PE和NC执行实时学习之前,首先对PE进行脱机的粗训练。对PE的脱机训练是以对对象的阶跃响应试验或脉冲响应试验所纪录的数据为依据的。为了得到对象的输入输出数据,把脉冲加到对象的输入端,同时把对象的输入输出数据纪录下来。为了复盖控制空间的相关的范围,在所纪录的数据对中选择10对能代表控制范围的数据。为了使控制效果有一定的裕废,最小和最大的数据应比实际控制范围要宽一些。</P><P>在PE通过脱机训练之后,可以得出了其初步的权系数;对于NC则随机赋于小的权系数,以避免传递函数为s函数的神经元饱和。在这样初始条件下,则可以对系统执行实时运行和学习。</P><P>三、实际控制过程及结果</P><P>对于实际水缸的水温控制系统,它的控制给定曲线是一条阶梯温度曲线;这条给定的温度曲线为:</P><P><img src="http://www.jgchina.com/ednns/ednnsbk/5.3.2/5.3.2.19.gif"></P><P>它的图形如图2-28所示。</P><P align=center><img src="http://www.jgchina.com/ednns/ednnsbk/5.3.2/5.3.2.20.gif"></P><P align=center>图2-28 给定温度曲线</P></TD></TR><TR><TD width="100%" height=482><P>在系统实际运行时,由于水温升高是较为缓慢的,所以对水温的采样周期选择为30秒。这种采样周期合符水缸水温控制的实际情况。 </P><P>在每个采样周期,对象仿真器PE更新15次,神经控制器NC执行11个学习周期。在神经控制器的11个学习周期中,有10个周期采用有关的多次学习逼近,有1个周期采用间接适应控制的学习方法。这些学习方法在2.2节中的联机学习方法及算法已进行了介绍。</P></TD></TR></TABLE>
b
 楼主| 发表于 2004-5-28 02:33:19 | 显示全部楼层
<TABLE height=71 cellSpacing=0 cellPadding=0 width=778 border=0><TR><TD width="100%" height=482><>在最初的10次试验中,神经控制器NC在每个采样周期中的多次学习逼近采用的是预测输出误差逼近;也即是说,在每个采样周期中有10个预测输出误差逼近学习周期,1个间接适应控制学习周期。
在随后的各次试验中,则在每个采样周期中,用5个直接逆控制误差逼近学习周期和5个预测输出误差逼近学习周期。</P><>在神经网络实时学习中,学习参数选择如下:</P><>学习速率η=0.1;</P><P>修正系数α=0.2;</P><P>学习时的偏差函数采用误差平方函数,形式如式(2.41)所示。</P><P>通过34次实时试验,神经网络在实时学习中确定了权系数,则用这些权系数所最终描述的神经网络PE和NC对系统执行控制,可得出如图2—29所示的控制效果。</P><P align=center><img src="http://www.jgchina.com/ednns/ednnsbk/5.3.2/5.3.2.21.gif"></P><P align=center>图2-29 34次试验后所得的控制效果</P></TD></TR><TR><TD width="100%" height=525><P>在图2—29中,上图是给定温度曲线r(k)和控制结果曲线y(k)的变化情况。在给定温度以阶跃形式从室温升到35℃时,大约经过10个采样周期,系统输出会很好地跟踪给定35℃的温度。这时因为室温的温度大约为25℃。当给定温度从35℃阶跃上升到55℃时,大约经过18个采样周期,输出能很好地跟踪给定的55℃,而当给定温度从55℃再以阶跃形式上升到75℃时,大约经过四个采样周期后输出能跟踪给定的最终温度75℃。这种特性和水缸的特性有关,因为越接近80℃,水缸的非线性特性越明显。总的控制情况说明:通过实时学习的神经网络对象仿真器PE和神经网络控制器NC能满意地实现对水缸水温的控制。 </P><P>在图2—29中,下因给出的是神经控制器Nc的输出控制信号;很明显,在采样周期次数序号为k=0—10时,NC的输出u(k)是一幅值为5的方波;而在采样序号k=60—78时.PE输出u(k)是一幅值为5而宽度为9分钟的方波;而在k=120—140时,NC输出U(k)是幅值为5同时宽度为10分钟的方波。</P><P>当空温为20℃,而控制给定温度曲线由下式给出:</P><P><img src="http://www.jgchina.com/ednns/ednnsbk/5.3.2/5.3.2.22.gif"></P><P>则控制的情况如图2—30所示。</P><P align=center><img src="http://www.jgchina.com/ednns/ednnsbk/5.3.2/5.3.2.23.gif"></P><P align=center>图2—30 阶跃及匀速给定的响应情况</P></TD></TR><TR><TD width="100%" height=29><P>在图2—30中,上图是系统的给定温度曲线r(k)以及系统的输出温度曲线的响应情况,从图中看出系统有良好的响应特性,特别是匀速给定的上升温度曲线,即在60&lt;K≤120时有很好的跟踪能力。在图中,当k=50时,人为加入+5℃的干扰;而在k=150℃时,加入人为的-5℃干扰;而情况表明控制系统有很快的适应能力。图2—30的下图则是神经控制器Nc的输出控制信号U(k)的波形。</P></TD></TR></TABLE>
b
 楼主| 发表于 2004-5-28 02:33:37 | 显示全部楼层
<TABLE height=1478 cellSpacing=0 cellPadding=0 width=778 border=0><TR><TD width="100%" height=14>< align=center>第三章 模糊神经网络</P></TD></TR><TR><TD width="100%" height=539><>模糊逻辑和神经网络的发展使到近十年以来智能控制得到十分重要的进展;由于模糊逻辑和神经网络又是两个截然不同的领域;它们的基础理论相差较远。但是,它们都是智能的仿真方法。是否可以把它们结合起来而加以应用呢?从客观实践和理论的溶合上讲是完全可以令它们结合的。把模糊逻辑和神经网络相结合就产生了—种新的技术领域:这就是模糊神经网络。模糊神经网络是正在不断探讨和研究的一个新领域。在目前,模糊神经网络有如下三种形式: </P><>1.逻辑模糊神经网络</P><P>2.算术模糊神经网络</P><P>3.混合模糊神经网络</P><P>模糊神经网络就是具有模糊权系数或者输入信号是模糊量的神经网络。上面三种形式的模糊神经网络中所执行的运算方法不同。</P><P>模糊神经网络无论作为逼近器,还是模式存储器,都是需要学习和优化权系数的。学习算法是模糊神经网络优化权系数的关键。对于逻辑模糊神经网络,可采用基于误差的学习算法,也即是监视学习算法。对于算术模糊神经网络,则有模糊BP算法,遗传算法等。对于混合模糊神经网络,目前尚未有合理的算法;不过,混合模糊神经网络一般是用于计算而不是用于学习的,它不必一定学习。
模糊神经网络可用于模糊回归、模糊控制器、模糊专家系统、模糊谱系分析、模糊矩阵方程、通用逼近器。</P><P>在控制领域中,所关心的是由模糊神经网络构成的模糊控制器。在这一章中.介绍模糊神经网络的基本结构、遗传算法、模糊神经网络的学习算法,以及模糊神经网络的应用。</P><P align=center><A>3.1 模糊神经网络概念和结构</A></P><P>模糊神经网络是一种新型的神经网络,它是在网络中引入模糊算法或模糊权系数的神经网络。模糊神经网络的特点在于把模糊逻辑方法和神经网络方法结合在一起。</P><P>对于模糊神经网络而言,最重要的有如下三点:</P><P>第一,模糊神经元模型的开发;</P><P>第二,模糊权系数模型的开发;</P><P>第三.模糊神经网络学习算法的开发。</P><P>1974年,S.C.Lee以和E.T.Lee在Cybernetics杂志上发表了“”Fuzzy sets and neural networks”一文,首次把模糊集和神经网络联系在一起;接着,在1975年,他们又在Math.Biosci杂志上发表厂“Fuzzy neural networks”一文,明确地对模糊神经网络进行了研究。在文章中,作者用0和1之间的中间值推广了McCulloch-Pitts神经网络模型。在以后一段时间中,由于神经网络的研究仍处于低潮,所以在这方面的研究没有取得什么进展。1985年,J.M Keller和D.Huut提出f把模糊隶属函数和感知器算法相结合。1989年T.Yamakawa提出了初始的模糊神经元.这种模糊神经元具有模糊权系数,但输入信号是实数。1992年,T.Yamakawa又提出了新的模糊神经元,新的模糊神经元的每个输入端不是具有单一的权系数,而是模糊权系数和实权系数串联的集合。同年,K.Nakamura和M.Tokunaga分别也提出了和T.Yamakawa的新模糊神经元类同的模糊神经元。1992年,D.Nauck和R.Kruse提出用单一模糊权系数的模糊神经元进行模糊控制及过程学习。而在这一年,I.Requena和M.Delgado提出了具有实数权系数,模糊阀值和模糊输入的模糊神经元。1990年到1992年期间,M.M.Gupta提出了多种模糊神经元模型,这些模型中有类同上面的模糊神经元模型.还有含模糊权系数并可以输入模糊量的模糊神经元。1992年开始,J.J.Backley发表了多篇关于混合模糊神经网络的文章,它们也反映了人们近年来的兴趣点。</P><P>在下面分别对模物神经网络的不同结构形式进行介绍。这些结构包括逻辑模糊神经网络、算术模糊神经网络、混合模糊神经网络、其他模糊神经网络。</P><P>3.1.1 逻辑模糊神经网络</P><P>逻辑模糊神经网络是由逻辑模糊神经元组成的。逻辑模糊神经元是具有模糊权系数,并且可对输入的模糊信号执行逻辑操作的神经元。模糊神经元所执行的模糊运算有逻辑运算、算水运算和其它运算。无论如何,模糊神经元的基础是传统神经元。它们可从传统神经元推导出。</P><P>可执行模物运算的模糊神经网络是从一般神经网络发展而得到的。对于一般神经网络.它的基本单元是传统神经元。传统神经元的模型是由下式描述的:</P><TABLE cellSpacing=0 cellPadding=0 width="80%" align=center border=0><TR><TD width="76%"><img src="http://www.jgchina.com/ednns/ednnsbk/6/6.htm1.gif"></TD><TD width="24%">(3-1)</TD></TR><TR><TD width="76%"><FONT size=2>当阀值θ<SUB>i</SUB>=0 时,有</FONT></TD><TD width="24%"></TD></TR><TR><TD width="76%"><img src="http://www.jgchina.com/ednns/ednnsbk/6/6.htm2.gif"></TD><TD width="24%">(3-2)</TD></TR></TABLE></TD></TR><TR><TD width="100%" height=289><P>其中:X<SUB>j</SUB>是神经元的输入; </P><P>W<SUB>ij</SUB>是权系数;</P><P>f[·]是非线性激发函数;</P><P>Y<SUB>i</SUB>是神经元的输出。</P><P>如果把式(3—2)中的有关运算改为模糊运算,从而可以得到基于模糊运算的模糊神经元,这种神经元的模型可以用下面式(3—3)表示:</P><TABLE cellSpacing=0 cellPadding=0 width="80%" align=center border=0><TR><TD width="80%"><img src="http://www.jgchina.com/ednns/ednnsbk/6/6.htm3.gif"></TD><TD width="20%">(3-3)</TD></TR><TR><TD width="80%"><FONT size=2>其中:⊕表示模糊加运算;
⊙表示模糊乘运算。
同理,式(3—3)中的运算也可以用模糊逻辑运算取代。从而有“或”神经元:</FONT></TD><TD width="20%"></TD></TR><TR><TD width="80%"><img src="http://www.jgchina.com/ednns/ednnsbk/6/6.htm4.gif"></TD><TD width="20%">(3-4)</TD></TR><TR><TD width="80%"><FONT size=2>或者表示为:</FONT></TD><TD width="20%"></TD></TR><TR><TD width="80%"><img src="http://www.jgchina.com/ednns/ednnsbk/6/6.htm5.gif"></TD><TD width="20%">(3-5)</TD></TR><TR><TD width="80%"><FONT size=2>同理也就有“与”神经元的模型如下:</FONT></TD><TD width="20%"></TD></TR><TR><TD width="80%"><img src="http://www.jgchina.com/ednns/ednnsbk/6/6.htm6.gif"></TD><TD width="20%">(3-6)</TD></TR><TR><TD width="80%"><FONT size=2>或者表示为:</FONT></TD><TD width="20%"></TD></TR><TR><TD width="80%"><img src="http://www.jgchina.com/ednns/ednnsbk/6/6.htm7.gif"></TD><TD width="20%">(3-7)</TD></TR></TABLE></TD></TR><TR><TD width="100%" height=89><P>下面专门考虑基于模糊逻辑运算的模糊神经网络的有关特性。 </P><P>一、网络的模型</P><P>对于一个神经元,考虑其输入信号是以隶属函数表示,而不是以绝对值表示,则把输人向量表示为:</P><DIV align=center><CENTER><TABLE cellSpacing=0 cellPadding=0 width="80%" border=0><TR><TD width="80%"><img src="http://www.jgchina.com/ednns/ednnsbk/6/6.htm8.gif"></TD><TD width="20%">(3-8)</TD></TR></TABLE></CENTER></DIV></TD></TR><TR><TD width="100%" height=6><P>很明显,这些输入信号是在(n+1)维超立方体[0,1]<SUP>n+1</SUP>之内,隶属函数的隶属度为[0,1]间的值,而输入信号是隶属函数,也即是以论域元素及其隶属度表示,故在式(3-8)中,X<SUB>n</SUB>(t)是模糊量。 </P><P>同理,网络中的权系数向量也可用起立方体[0,1]<SUP>n+1</SUP>中的信号表示:</P><DIV align=center><CENTER><TABLE cellSpacing=0 cellPadding=0 width="80%" border=0><TR><TD width="80%"><img src="http://www.jgchina.com/ednns/ednnsbk/6/6.htm9.gif"></TD><TD width="20%">(3-9)</TD></TR></TABLE></CENTER></DIV></TD></TR><TR><TD width="100%" height=9><P>在式(3-9)中,权系数W<SUB>n</SUB>(t)模糊量,这时的神经元结构如图3-1所示。 </P><P>对于输入X1,X2[0,1],定义AND操作为T映射:</P><P>T:[0,1]*[0,1]——[0,1]</P><P>即</P><DIV align=center><CENTER><TABLE cellSpacing=0 cellPadding=0 width="80%" border=0><TR><TD width="80%"><img src="http://www.jgchina.com/ednns/ednnsbk/6/6.htm10.gif"></TD><TD width="20%">(3-10)</TD></TR><TR><TD width="80%"><FONT size=2>同理,定义OR操作为S映射
S:[0,1]*[0,1]——[0,1]
即</FONT></TD><TD width="20%"></TD></TR><TR><TD width="80%"><img src="http://www.jgchina.com/ednns/ednnsbk/6/6.htm11.gif"></TD><TD width="20%">(3-11)</TD></TR></TABLE></CENTER></DIV></TD></TR><TR><TD width="100%" height=159><P>并且,定义N操作为N映射: </P><P>N:[0,1]——[0,1]</P><P>即</P><P>Y<SUB>N</SUB>=N[X<SUB>1</SUB>]=1-X<SUB>1</SUB>              (3-12)</P><P>故而有 N(0)=1,N(1)=0,NN(x)=X</P><P>对于T,S算子,则有如下重要性质:</P><P>T(0,0)=0 S(0,0)=0 <P>T(1,1)=1 S(1,1)=1 <P>T(1,X)=X S(0,X)=X <P>T(X,Y)=T(Y,X) S(X,Y)=S(Y,X) <P>同时,根据Morgan定理,则有如下关系: <P>T(X1,X2)=1-S(1-X1,1-X2) <P>S(X1,X2)=1-T(1-X1,1-X2) <P>在基于模糊逻辑操作的模糊神经网络中,神经网络的输入和权系数向量有: <P>X(t)∈[0,1]<SUP>n+1</SUP> <P>W(t)∈[0,1]<SUP>n+1</SUP> <P>则在神经网络模型(3—2)中,权系数和输入信号的乘操作用T操作取代,求和操作由s操作取代,则有: <DIV align=center><CENTER><TABLE cellSpacing=0 cellPadding=0 width="80%" border=0><TR><TD width="78%"><img src="http://www.jgchina.com/ednns/ednnsbk/6/6.htm12.gif"></TD><TD width="22%">(3-13)</TD></TR></TABLE></CENTER></DIV></TD></TR><TR><TD width="100%" height=87><P>其中:f|·|是非线性函数。 </P><P align=center><img src="http://www.jgchina.com/ednns/ednnsbk/6/6.htm13.gif"></P><P align=center>图3-1 模糊神经元模型</P></TD></TR></TABLE>
b
 楼主| 发表于 2004-5-28 02:34:07 | 显示全部楼层
<TABLE height=1478 cellSpacing=0 cellPadding=0 width=778 border=0><TR><TD width="100%" height=941><>二、单极到双极的变换 </P><>上面的模糊逻辑操作是定义在[0,1]正区间内的;所以,神经网络的状态也就局限于[0,1]正区间内。为了考虑神经网络的激发和抑制特性,需要考虑神经网络的正和负的输入向量。所以,神经网络的输人和权系数取[-1,1]区间的值。</P><>为了说明在[-1,1]区间的逻辑操作,故按照先前[0,1]区间的单极性情况,再转换到新的[-1,1]区间的双极性情况中,则随后就可以定义在[-1,1]区间的有关逻辑操作。</P><P>考虑单极信号X(t)∈[0,1],则对应双极信号Z(t)∈[-1,1]定义为:</P><P>Z(t)=2X(t)-1          (3-14)</P><P>同理,N[Z]定义为:</P><P>N[Z]=-Z(t)            (3-15)</P><P>用式(3—14)可以把在[0,1]区间定义的S,T操作转换成在[-1,1]区间的操作。</P><P>在[-1,1]区间的T(AND),S(OR)操作性质如下:</P><P>T(-1,-1)=-1           S(-1,-1)=-1</P><P>T(1,1)=1 S(1,1)=1</P><P>T(1,Z)=Z S(-1,Z)=Z</P><P>T(Z<SUB>1</SUB>,Z<SUB>2</SUB>)=T(Z<SUB>2</SUB>,Z<SUB>1</SUB>) S(Z<SUB>1</SUB>,Z<SUB>2</SUB>)=S(Z<SUB>2</SUB>,Z<SUB>1</SUB>)</P><P>在[-1,1]区间,T,S的Morgan定理为</P><P>T(Z<SUB>1</SUB>,Z<SUB>2</SUB>)=-S(-Z<SUB>1</SUB>,-Z<SUB>2</SUB>)</P><P>S(Z<SUB>1</SUB>,Z<SUB>2</SUB>)=-T(-Z<SUB>1</SUB>,-Z<SUB>2</SUB>)</P><P>利用变换式(3—14)可以把n+1维向量x(t)∈[0,1]<SUP>n+1</SUP>转换成n+1维向量Z(t)∈[-1,1]<SUP>n+1</SUP>。这时,神经元的操作和输出可以表示如下:</P><P>Y=f∈[-1,1]              (3-16)</P><P>其中:</P><P><img src="http://www.jgchina.com/ednns/ednnsbk/6/6.htm14.gif"></P><P>上式(3-16)也可以写成:</P><P><img src="http://www.jgchina.com/ednns/ednnsbk/6/6.htm114.gif"></P><P>或</P><P><img src="http://www.jgchina.com/ednns/ednnsbk/6/6.htm16.gif"></P><P>或</P><P><img src="http://www.jgchina.com/ednns/ednnsbk/6/6.htm17.gif"></P><P>在式(3—16)中f[·]的定义如下</P><P>f[u(t)]=|u(t)|<SUP>g</SUP>·sgn[u(t)], g&gt;0            (3-17)</P><P>其中:g是增益参数,它用于控制S函数的激发水平。</P><P>3.1.2 算术模糊神经网络</P><P>算术模糊神经网络是可以对输入模糊信号执行模糊算术运算,并含有模糊权系数的神经网络。通常,算术模糊神经网络也称为常规模糊神经网络,或称标推模糊神经网络。</P><P>常规模糊神经网络一般简称为RFNN(Regular Fuzzy Neural Net)或称为FNN(Fuzzy Neural Net)。在一般情况下,都把常规模糊神经网络简称为FNN。</P><P>常规模糊神经网络有三种基本类型,并分别用FNN1,FNN2,FNN3表示。这三种类型的意义如下:</P><P>1.FNN1是含有模糊权系数,而输入信号为实数的网络。</P><P>2.FNN2是含有实数权系数,而输入信号为模糊数的网络。</P><P>3.FNN3是含有模糊权系数,而输入信号为模糊数的网络。</P><P>下面先对模糊算术运算的定义进行介绍,随后说明常规模糊神经网络的结构和性质。</P><P>一、模糊算术运算</P><P>模糊算术运算包括有模糊乘和模糊加两种基本运算,它们的定义分别说明如下:</P><P>1.模糊乘</P><P>设N,M是两个模糊集,它们的隶属函数分别为:</P><P><img src="http://www.jgchina.com/ednns/ednnsbk/6/6.htm18.gif"></P><P>则N和M的模糊乘用下式表示:</P><TABLE height=81 cellSpacing=0 cellPadding=0 width="80%" align=center border=0><TR><TD width="81%" height=29><img src="http://www.jgchina.com/ednns/ednnsbk/6/6.htm19.gif"></TD><TD width="19%" height=29>(3-18)</TD></TR><TR><TD width="81%" height=34><FONT size=2>其中:符号⊙表示模糊乘运算。
模糊乘P的隶属函数由下式给出:</FONT></TD><TD width="19%" height=34></TD></TR><TR><TD width="81%" height=22><img src="http://www.jgchina.com/ednns/ednnsbk/6/6.htm20.gif"></TD><TD width="19%" height=22>(3-19)</TD></TR><TR><TD width="81%" height=11><FONT size=2>即</FONT></TD><TD width="19%" height=11></TD></TR><TR><TD width="81%" height=10><img src="http://www.jgchina.com/ednns/ednnsbk/6/6.htm21.gif"></TD><TD width="19%" height=10>(3-20)</TD></TR></TABLE></TD></TR><TR><TD width="100%" height=111><P>式(3—19),(3—20)定义了基于扩张原理的模糊乘运算。模糊乘的意义如图3—2所示。 </P><P align=center><img src="http://www.jgchina.com/ednns/ednnsbk/6/6.htm22.gif"></P><P align=center>图3-2 模糊乘</P></TD></TR><TR><TD width="100%" height=105><P>2.模糊加 </P><P>设N,M是两个模糊集,它们的隶属函数分别为:</P><P><img src="http://www.jgchina.com/ednns/ednnsbk/6/6.htm23.gif"></P><P>则N和M模糊加用下式表示</P><DIV align=center><CENTER><TABLE height=154 cellSpacing=0 cellPadding=0 width="80%" border=0><TR><TD width="69%" height=30><img src="http://www.jgchina.com/ednns/ednnsbk/6/6.htm24.gif"></TD><TD width="31%" height=30>(3-21)</TD></TR><TR><TD width="69%" height=34><FONT size=2>其中:符号⊕表示模糊加运算。
模糊和H的隶属函数由下式给出:</FONT></TD><TD width="31%" height=34></TD></TR><TR><TD width="69%" height=35><img src="http://www.jgchina.com/ednns/ednnsbk/6/6.htm15.gif"></TD><TD width="31%" height=35>(3-22)</TD></TR><TR><TD width="69%" height=18><FONT size=2>或</FONT></TD><TD width="31%" height=18></TD></TR><TR><TD width="69%" height=37><img src="http://www.jgchina.com/ednns/ednnsbk/6/6.htm26.gif"></TD><TD width="31%" height=37>(3-23)</TD></TR></TABLE></CENTER></DIV></TD></TR><TR><TD width="100%" height=122><P>式(3—22),(3—23)定义了基于扩张原理的模糊加运算。模糊加的意义如图3—3所示。 </P><P align=center><img src="http://www.jgchina.com/ednns/ednnsbk/6/6.htm27.gif"></P><P align=center>图3-3 模糊加</P></TD></TR><TR><TD width="100%" height=33><P>3.非线性映射 </P><P>设N是一个模糊集,f[·]是非线性映射,则N的非线性映射定义如下</P><P><img src="http://www.jgchina.com/ednns/ednnsbk/6/6.htm28.gif"></P><P>非线性映射结果G的隶属溺数由下式给出</P><DIV align=center><CENTER><TABLE cellSpacing=0 cellPadding=0 width="80%" border=0><TR><TD width="72%"><img src="http://www.jgchina.com/ednns/ednnsbk/6/6.htm29.gif"></TD><TD width="28%">(3-24)</TD></TR><TR><TD width="72%">或</TD><TD width="28%"></TD></TR><TR><TD width="72%"><img src="http://www.jgchina.com/ednns/ednnsbk/6/6.htm30.gif"></TD><TD width="28%">(3-25)</TD></TR></TABLE></CENTER></DIV></TD></TR><TR><TD width="100%" height=145><P>一般,在神经网络中的激发函数也称传递函数;传递函数通常采用S函数,即有f(x)=1/[1+exp(-X)]故而,模糊神经网络中模糊量的非线性映射就是S函数;并用f[·]表示。式(3—24),(3—25)定义基于扩张原理的非线性映射。它的意义如图3—4所示。 </P><P align=center><img src="http://www.jgchina.com/ednns/ednnsbk/6/6.htm31.gif"></P><P align=center>图3-4 非线性映射</P></TD></TR><TR><TD width="100%" height=163><P>常规模糊神经网络最典型的结构是FNN3型结构,而FNN1,FNN2型结构和FNN3相同;其运算过程都可以从FNN3型结构及运算过程中推出。在FNN3中,权系数和输入信号都是模糊数,而神经元对信息的处理采用模糊加、模糊乘和非线性的S函数。 </P><P>典型的FNN3的结构如图3—5所示。它是一个三层神经网络,有含2个神经元的输入层,含2个神经元的隐层和含1个神经元的输出层。网络中的神经元分别用编号1—5标出。</P><P align=center><img src="http://www.jgchina.com/ednns/ednnsbk/6/6.htm32.gif"></P><P align=center>图3-5 算术模糊神经网络</P></TD></TR><TR><TD width="100%" height=9><P>很明显,对神经元3.它的输人为U<SUB>3</SUB>: <DIV align=center><CENTER><TABLE height=43 cellSpacing=0 cellPadding=0 width="80%" border=0><TR><TD width="72%" height=6><img src="http://www.jgchina.com/ednns/ednnsbk/6/6.htm33.gif"></TD><TD width="28%" height=6>(3-25)</TD></TR><TR><TD width="72%" height=14><FONT size=2>对于神经元4,其输入为U<SUB>4</SUB>:</FONT></TD><TD width="28%" height=14></TD></TR><TR><TD width="72%" height=13><img src="http://www.jgchina.com/ednns/ednnsbk/6/6.htm34.gif"></TD><TD width="28%" height=13>(3-26)</TD></TR><TR><TD width="72%" height=23><FONT size=2>用O<SUB>3</SUB>,O<SUB>4</SUB>分别表示神经元3,4的输出,则有</FONT></TD><TD width="28%" height=23></TD></TR><TR><TD width="72%" height=23><img src="http://www.jgchina.com/ednns/ednnsbk/6/6.htm35.gif"></TD><TD width="28%" height=23>(3-27)</TD></TR><TR><TD width="72%" height=14><FONT size=2>对于神经元5,其输入为U<SUB>5</SUB>,输出为Y,则有</FONT></TD><TD width="28%" height=14></TD></TR><TR><TD width="72%" height=7><img src="http://www.jgchina.com/ednns/ednnsbk/6/6.htm36.gif"></TD><TD width="28%" height=7>(3-28)</TD></TR><TR><TD width="72%" height=11><img src="http://www.jgchina.com/ednns/ednnsbk/6/6.htm37.gif"></TD><TD width="28%" height=11>(3-29)</TD></TR></TABLE></CENTER></DIV></TD></TR><TR><TD width="100%" height=19><P>最后的输出Y,是由传递函数S函数求出的,故模糊数YE[0,1]。 <P>对于模糊神经网络,在输入为N,M时其输出为Y;则可以看作N,M通过神经网络后映射为Y,并表示为:</P><DIV align=center><CENTER><TABLE cellSpacing=0 cellPadding=0 width="80%" border=0><TR><TD width="72%"><img src="http://www.jgchina.com/ednns/ednnsbk/6/6.htm38.gif"></TD><TD width="28%">(3-30)</TD></TR></TABLE></CENTER></DIV></TD></TR><TR><TD width="100%" height=15><P>三、常规模糊神经网络的性质 <P>用L表示所有实模糊数的集合;而Lx L用Ω表示,称为2维模糊数空间。</P><P>设N,M∈L,Y∈L,则从Ω到L的映射F:Ω——L,可表示为</P><DIV align=center><CENTER><TABLE cellSpacing=0 cellPadding=0 width="80%" border=0><TR><TD width="72%"><img src="http://www.jgchina.com/ednns/ednnsbk/6/6.htm39.gif"></TD><TD width="28%">(3-31)</TD></TR></TABLE></CENTER></DIV></TD></TR><TR><TD width="100%" height=16><P>当并且仅当 <P><img src="http://www.jgchina.com/ednns/ednnsbk/6/6.htm40.gif"></P><P>则有</P><P><img src="http://www.jgchina.com/ednns/ednnsbk/6/6.htm41.gif"></P><P>则称映射f:Ω——L是单调的。</P><P>考虑图3—5所示的模糊神经网络,并用FNN表示,则有映射</P><P><img src="http://www.jgchina.com/ednns/ednnsbk/6/6.htm42.gif"></P><P>如果在图3—5中输入的信号是N',M',并且有</P><DIV align=center><CENTER><TABLE height=127 cellSpacing=0 cellPadding=0 width="80%" border=0><TR><TD width="74%" height=25><img src="http://www.jgchina.com/ednns/ednnsbk/6/6.htm43.gif"></TD><TD width="26%" height=25>(3-32)</TD></TR><TR><TD width="74%" height=32><img src="http://www.jgchina.com/ednns/ednnsbk/6/6.htm44.gif"></TD><TD width="26%" height=32>(3-33)</TD></TR><TR><TD width="74%" height=18><FONT size=2>令</FONT></TD><TD width="26%" height=18></TD></TR><TR><TD width="74%" height=18><img src="http://www.jgchina.com/ednns/ednnsbk/6/6.htm45.gif"></TD><TD width="26%" height=18>(3-34)</TD></TR><TR><TD width="74%" height=18><FONT size=2>则有</FONT></TD><TD width="26%" height=18></TD></TR><TR><TD width="74%" height=30><img src="http://www.jgchina.com/ednns/ednnsbk/6/6.htm46.gif"></TD><TD width="26%" height=30>(3-35)</TD></TR><TR><TD width="74%" height=6><FONT size=2>令</FONT></TD><TD width="26%" height=6></TD></TR><TR><TD width="74%" height=21><img src="http://www.jgchina.com/ednns/ednnsbk/6/6.htm48.gif"></TD><TD width="26%" height=21>(3-36)</TD></TR><TR><TD width="74%" height=21><FONT size=2>则有</FONT></TD><TD width="26%" height=21></TD></TR><TR><TD width="74%" height=20><img src="http://www.jgchina.com/ednns/ednnsbk/6/6.htm47.gif"></TD><TD width="26%" height=20>(3-37)</TD></TR><TR><TD width="74%" height=20><FONT size=2>从而有</FONT></TD><TD width="26%" height=20></TD></TR><TR><TD width="74%" height=11><img src="http://www.jgchina.com/ednns/ednnsbk/6/6.htm49.gif"></TD><TD width="26%" height=11>(3-38)</TD></TR><TR><TD width="74%" height=7><img src="http://www.jgchina.com/ednns/ednnsbk/6/6.htm50.gif"></TD><TD width="26%" height=7>(3-39)</TD></TR><TR><TD width="74%" height=12><FONT size=2>令 </FONT></TD><TD width="26%" height=12></TD></TR><TR><TD width="74%" height=7><img src="http://www.jgchina.com/ednns/ednnsbk/6/6.htm51.gif"></TD><TD width="26%" height=7>(3-40)</TD></TR><TR><TD width="74%" height=5><FONT size=2>则有</FONT></TD><TD width="26%" height=5></TD></TR><TR><TD width="74%" height=11><img src="http://www.jgchina.com/ednns/ednnsbk/6/6.htm52.gif"></TD><TD width="26%" height=11>(3-41)</TD></TR><TR><TD width="74%" height=7><FONT size=2>最后利用扩张原理和S函数f(x)=(1+e<SUP>-x</SUP>)<SUP>-1</SUP>计算输出</FONT></TD><TD width="26%" height=7></TD></TR><TR><TD width="74%" height=11><img src="http://www.jgchina.com/ednns/ednnsbk/6/6.htm53.gif"></TD><TD width="26%" height=11>(3-42)</TD></TR><TR><TD width="74%" height=9><img src="http://www.jgchina.com/ednns/ednnsbk/6/6.htm54.gif"></TD><TD width="26%" height=9>(3-43)</TD></TR><TR><TD width="74%" height=8><FONT size=2>隶属函数分别为:</FONT></TD><TD width="26%" height=8></TD></TR><TR><TD width="74%" height=6><img src="http://www.jgchina.com/ednns/ednnsbk/6/6.htm55.gif"></TD><TD width="26%" height=6>(3-44)</TD></TR><TR><TD width="74%" height=5><img src="http://www.jgchina.com/ednns/ednnsbk/6/6.htm56.gif"></TD><TD width="26%" height=5>(3-45)</TD></TR><TR><TD width="74%" height=9><FONT size=2>由于</FONT></TD><TD width="26%" height=9></TD></TR><TR><TD width="74%" height=7><img src="http://www.jgchina.com/ednns/ednnsbk/6/6.htm57.gif">,<FONT size=2>故</FONT></TD><TD width="26%" height=7></TD></TR><TR><TD width="74%" height=7><img src="http://www.jgchina.com/ednns/ednnsbk/6/6.htm58.gif"></TD><TD width="26%" height=7>(3-46)</TD></TR></TABLE></CENTER></DIV></TD></TR><TR><TD width="100%" height=9><P>很明显,对于图3—5所示的模糊神经网络,它是一个单调的网络。 <P>实际上,可以把上述情况扩展到一级的常规模糊神经网络。最后有如下结论:</P><P>对于一个模糊神经网络,如果它的算术运算是基于扩张原则的,则这个模糊神经网络是—个单调的网络。即</P><P><img src="http://www.jgchina.com/ednns/ednnsbk/6/6.htm59.gif"></P><P>则有</P><P><img src="http://www.jgchina.com/ednns/ednnsbk/6/6.htm60.gif"></P><P>从上面的结论可知:对于任何从o到L的连续单调映射,都可以用基于扩张原理的常规模糊神经网络进行逼近。反之,如果映射是非单调的,则不能用常规模糊神经网络进行逼近。</P><P>3.1.3混合模糊神经网络</P><P>混合模糊神经网络简称HFNN(Hybrid Fuzzy Neural Net)。在网络的拓扑结构上,混合模糊神经网络和常规模糊神经网络是一样的。它们之间的不同仅在于如下两点功能:</P><P>1.输入到神经元的数据聚合方法不同;</P><P>2.神经元的激发函数,即传递函数不同。</P><P>在混合模糊神经网络中,任何操作都可以用于聚合数据,任何函数都可以用作传递函数去产生网络的输出。对于专门的应用用途,可选择与之相关而有效的聚合运算和传递函数。而在常规模糊神经网络,也即标准模糊神经网络中,数据的聚合方法采用模糊加或乘运算,传递函数采用S函数。</P><P>下面就以具体的混合模糊神经网络来说明它的网络操作情况;然后再介绍这种网络的性质。</P></TD></TR></TABLE>
b
 楼主| 发表于 2004-5-28 02:34:30 | 显示全部楼层
<TABLE height=1478 cellSpacing=0 cellPadding=0 width=778 border=0><TR><TD width="100%" height=9><>一、混台模糊神经网络的操作</P><>为了具体说明在混合模糊神经网络的操作过程,首先考虑图3—6所示的网络拓扑结构。在这个网络中各个神经元的聚合运算和传递函数可以是不同的。正是因为它不象常规模糊神经网络那样采用标准的加、乘运算以及s函数,而是可随意在任何层任何神经元采用不同的操作,所以,它被称为混合(Hybrid)模糊神经网络。</P>< align=center><img src="http://www.jgchina.com/ednns/ednnsbk/6/6.htm61.gif"></P><P align=center>图3-6 混合模糊神经网络</P></TD></TR><TR><TD width="100%" height=9><P>1.输入层和第1院层的工作情况 <P>在第1隐层中一共有K个神经元,在输入层中有2个节点和第1隐层的一个神经元连接;也即是说,第1隐层的每个神经元有2个输入端。</P><P>设L是所有实模糊数的集合,在图3—6中,N、M、Ak、Bk、Ck、Q、J是实模捌数。用E表示两个模糊效之间相等的程度测量,并且在N=M时,有</P><P><img src="http://www.jgchina.com/ednns/ednnsbk/6/6.htm62.gif"></P><P><img src="http://www.jgchina.com/ednns/ednnsbk/6/6.htm63.gif"></P><P><img src="http://www.jgchina.com/ednns/ednnsbk/6/6.htm64.gif"></P><P>则在第1隐层的第k个神经元的输入用I<SUB>1k</SUB>表示,有</P><DIV align=center><CENTER><TABLE cellSpacing=0 cellPadding=0 width="80%" border=0><TR><TD width="66%"><img src="http://www.jgchina.com/ednns/ednnsbk/6/6.htm65.gif"></TD><TD width="34%">(3-47)</TD></TR></TABLE></CENTER></DIV></TD></TR><TR><TD width="100%" height=9><P>其中.A<SUB>k</SUB>,B<SUB>k</SUB>是权系数1&lt;k&lt;K<SUB>c</SUB>。 <P>很明显,在混合模糊神经元中,输入信号N,M和权系数A<SUB>k</SUB>,B<SUB>k</SUB>之间的交互作用是用测度E(N,A<SUB>k</SUB>),E(M,B<SUB>k</SUB>)来量度的,最后求出它的最大值为结果输入。</P><P>在混合模糊神经网络第1隐层中,传递函数f为阶跃函数,并且有输出λ<SUB>k</SUB> </P><DIV align=center><CENTER><TABLE cellSpacing=0 cellPadding=0 width="80%" border=0><TR><TD width="71%"><img src="http://www.jgchina.com/ednns/ednnsbk/6/6.htm66.gif"></TD><TD width="29%">(3-48)</TD></TR></TABLE></CENTER></DIV></TD></TR><TR><TD width="100%" height=9><P>其中:t为神经网络的阀值,t&gt;0;1≤k≤K。 <P>在这里,第1隐层的所有神经元的传递函数相同,阀值相同。</P><P>2.第2隐层的工作情况</P><P>在第2隐层中.第1个神经元的权系数为1。从图3—6中看出,输入第2隐层第1个神经元的输入数据为I<SUB>21</SUB>,即有</P><DIV align=center><CENTER><TABLE cellSpacing=0 cellPadding=0 width="80%" border=0><TR><TD width="71%"><img src="http://www.jgchina.com/ednns/ednnsbk/6/6.htm67.gif"></TD><TD width="29%">(3-49)</TD></TR><TR><TD width="71%"><FONT size=2>由于λ<SUB>k</SUB>是实数0或1,故I<SUB>21</SUB>是精确值。
该神经元的传递函数采用相同函数,故有</FONT></TD><TD width="29%"></TD></TR><TR><TD width="71%">f(X)=X</TD><TD width="29%">(3-50)</TD></TR><TR><TD width="71%"><FONT size=2>故而,这个神经元的输出θ等于其输入I<SUB>21</SUB>,即</FONT></TD><TD width="29%"></TD></TR><TR><TD width="71%">θ=I<SUB>21</SUB></TD><TD width="29%">(3-51)</TD></TR></TABLE></CENTER></DIV></TD></TR><TR><TD width="100%" height=9><P>对于第2隐层第2个神经元,它的权系数分别为C1,C2.…,Ck。所以,其输入表示为I<SUB>22</SUB>.并有 <DIV align=center><CENTER><TABLE cellSpacing=0 cellPadding=0 width="80%" border=0><TR><TD width="79%"><img src="http://www.jgchina.com/ednns/ednnsbk/6/6.htm68.gif"></TD><TD width="21%">(3-52)</TD></TR><TR><TD width="79%"><FONT size=2>并且λ<SUB>k</SUB>,Ck的取值如下</FONT></TD><TD width="21%"></TD></TR><TR><TD width="79%"><img src="http://www.jgchina.com/ednns/ednnsbk/6/6.htm69.gif"></TD><TD width="21%">(3-53)</TD></TR><TR><TD width="79%"><FONT size=2>同时,式(3—52)中的符号Σ是模糊加的标准操作,其意义由式(3—22),(3—23)给出。
这个神经元的传递函数也采用相同函数,故而有输出J,</FONT></TD><TD width="21%"></TD></TR><TR><TD width="79%"><img src="http://www.jgchina.com/ednns/ednnsbk/6/6.htm70.gif"></TD><TD width="21%">(3-54)</TD></TR></TABLE></CENTER></DIV></TD></TR><TR><TD width="100%" height=9><P>3.输出层的工作情况 <P>在输出层中,权系数为10但是输出层神经元的聚合操作是除法;所以.输出神经元的输人数据为I</P><DIV align=center><CENTER><TABLE cellSpacing=0 cellPadding=0 width="80%" border=0><TR><TD width="76%"><img src="http://www.jgchina.com/ednns/ednnsbk/6/6.htm71.gif"></TD><TD width="24%">(3-55)</TD></TR></TABLE></CENTER></DIV></TD></TR><TR><TD width="100%" height=10><P>传递函数也采用相同函数,所以输出等于输人,即有 <P><img src="http://www.jgchina.com/ednns/ednnsbk/6/6.htm72.gif"></P><P>从上面分析可以知道,图3—6所示的混合模糊神经网络的最后输出P可表示为</P><DIV align=center><CENTER><TABLE cellSpacing=0 cellPadding=0 width="80%" border=0><TR><TD width="76%"><img src="http://www.jgchina.com/ednns/ednnsbk/6/6.htm73.gif"></TD><TD width="24%">(3-56)</TD></TR><TR><TD width="76%"><FONT size=2>当在λ<SUB>k</SUB>=1时,则有</FONT></TD><TD width="24%"></TD></TR><TR><TD width="76%"><img src="http://www.jgchina.com/ednns/ednnsbk/6/6.htm74.gif"></TD><TD width="24%">(3-57)</TD></TR></TABLE></CENTER></DIV></TD></TR><TR><TD width="100%" height=5><P>二、混合模糊神经网络的性质 <P>混合模糊神经网络由于它所采用的运算和常规模糊神经网络不同;所以,它有独特的性质。如果用F表示图3—6所示的由相等测量E,阀值t,权系数Ak,Bk,Ck所构造的混合模糊神经网络;那么,F是一个通用逼近器。
换而言之,图3—6所示的混合模糊神经网络可以逼近任意的双输入单输出模糊函数。</P><P>1.基本定义和概念</P><P>L表示所有实模糊数的集合;则Ω表示2维实模糊数集合,即 Ω=LxL。</P><P>定义1:模糊数N、M的。截集用N(α),M(α)表示,则有</P><P><img src="http://www.jgchina.com/ednns/ednnsbk/6/6.htm75.gif"></P><P><img src="http://www.jgchina.com/ednns/ednnsbk/6/6.htm76.gif"></P><P>其中,n1(α)是。截集N(α)的下界元素,n2(α)是N(α)的上界元素;m1(α)是M(α)的下界元素,m2(α)是M(α)的上界元素。</P><P>模糊数N,M的Hausdorff心13测度由下式给出:</P><DIV align=center><CENTER><TABLE cellSpacing=0 cellPadding=0 width="80%" border=0><TR><TD width="80%"><img src="http://www.jgchina.com/ednns/ednnsbk/6/6.htm77.gif"></TD><TD width="20%">(3-58)</TD></TR><TR><TD width="80%"><FONT size=2>定义2:在集合L中,模糊数N,M之间的距离用d表示,并由下式给出</FONT></TD><TD width="20%"></TD></TR><TR><TD width="80%"><img src="http://www.jgchina.com/ednns/ednnsbk/6/6.htm78.gif"></TD><TD width="20%">(3-59)</TD></TR></TABLE></CENTER></DIV></TD></TR><TR><TD width="100%" height=13><P>定义3:在2维实模糊数集合Ω=L xL中,两个2维模糊数(N1,M1)和(N2,M2)之间的距离用D表示,并且由下式给出: <DIV align=center><CENTER><TABLE cellSpacing=0 cellPadding=0 width="80%" border=0><TR><TD width="80%"><img src="http://www.jgchina.com/ednns/ednnsbk/6/6.htm79.gif"></TD><TD width="20%">(3-60)</TD></TR></TABLE></CENTER></DIV></TD></TR><TR><TD width="100%" height=12><P>定义4:F是连续映射 <P>F:Ω——L</P><P><img src="http://www.jgchina.com/ednns/ednnsbk/6/6.htm80.gif"></P><P>其中:N,M是L的模掘数,Y也是L中的模糊数。</P><P>2.通用逼近器定理</P><P>定理:图3—6中由E,t,Ak,Bk,Ck所构造的模糊神经网络F是一个通用逼近器。</P><P>证明:</P><P>设u是Ω中的紧子集,F是U到L的连续映射,HFNN是由Ak,Bk,Ck,E,t所定义的空间F中的混合模糊神经网络。</P><P>对于模糊数N,M,有映射</P><DIV align=center><CENTER><TABLE height=114 cellSpacing=0 cellPadding=0 width="80%" border=0><TR><TD width="80%" colSpan=2 height=31><img src="http://www.jgchina.com/ednns/ednnsbk/6/6.htm81.gif"></TD><TD width="20%" height=31>(3-61)</TD></TR><TR><TD width="80%" colSpan=2 height=18><FONT size=2>同时,把N,M输入混合模糊神经网络HFNN,有输出:</FONT></TD><TD width="20%" height=18></TD></TR><TR><TD width="80%" colSpan=2 height=28><img src="http://www.jgchina.com/ednns/ednnsbk/6/6.htm82.gif"></TD><TD width="20%" height=28>(3-62)</TD></TR><TR><TD width="80%" colSpan=2 height=11><FONT size=2>存在无穷小的数ε&gt;0,如果对于U中的所有(N,M)都有</FONT></TD><TD width="20%" height=11></TD></TR><TR><TD width="80%" colSpan=2 height=12><img src="http://www.jgchina.com/ednns/ednnsbk/6/6.htm83.gif"></TD><TD width="20%" height=12>(3-63)</TD></TR><TR><TD width="80%" colSpan=2 height=13><img src="http://www.jgchina.com/ednns/ednnsbk/6/6.htm84.gif"></TD><TD width="20%" height=13>(3-64)</TD></TR><TR><TD width="80%" colSpan=2 height=15><FONT size=2>其中:D是距离,如式(3—59)所示。
则说明HFNN可以逼近映射F;也即是说F是一个通用逼近器。
下面给出证明过程:
(1)设对于给定ε&gt;0,令</FONT></TD><TD width="20%" height=15></TD></TR><TR><TD width="80%" colSpan=2 height=9><img src="http://www.jgchina.com/ednns/ednnsbk/6/6.htm85.gif"></TD><TD width="20%" height=9>(3-65)</TD></TR><TR><TD width="80%" colSpan=2 height=21><FONT size=2>则对应存在δ&gt;o,令</FONT></TD><TD width="20%" height=21></TD></TR><TR><TD width="80%" colSpan=2 height=15><img src="http://www.jgchina.com/ednns/ednnsbk/6/6.htm86.gif"></TD><TD width="20%" height=15>(3-66)</TD></TR><TR><TD width="80%" colSpan=2 height=18><FONT size=2>其中:D(N<SUB>1</SUB>.M<SUB>1</SUB>),(N<SUB>2</SUB>,M<SUB>2</SUB>)属于U。
对U中的每一个(N,M),令</FONT></TD><TD width="20%" height=18></TD></TR><TR><TD width="80%" colSpan=2 height=21><img src="http://www.jgchina.com/ednns/ednnsbk/6/6.htm87.gif"></TD><TD width="20%" height=21>(3-67)</TD></TR><TR><TD width="80%" colSpan=2 height=11><FONT size=2>这即是紧集合U的开复盖(open cover)。因此,存在有限子复盖(subcover):</FONT></TD><TD width="20%" height=11></TD></TR><TR><TD width="80%" colSpan=2 height=15><img src="http://www.jgchina.com/ednns/ednnsbk/6/6.htm88.gif"></TD><TD width="20%" height=15>(3-68)</TD></TR><TR><TD width="80%" colSpan=2 height=15><FONT size=2>令Nk=Ak,Mk=Bk,以及映射F为</FONT></TD><TD width="20%" height=15></TD></TR><TR><TD width="80%" colSpan=2 height=20><img src="http://www.jgchina.com/ednns/ednnsbk/6/6.htm89.gif"></TD><TD width="20%" height=20>(3-69)</TD></TR><TR><TD width="80%" colSpan=2 height=13><FONT size=2>其中:1≤k≤K。
考虑U中任意给出的(N,M),对于映射F有</FONT></TD><TD width="20%" height=13></TD></TR><TR><TD width="80%" colSpan=2 height=21><img src="http://www.jgchina.com/ednns/ednnsbk/6/6.htm90.gif"></TD><TD width="20%" height=21>(3-70)</TD></TR><TR><TD width="80%" colSpan=2 height=11><FONT size=2>由于在式(3—69),(3—70)中的映射F相同;同时从式(3—68)可知</FONT> <P><img src="http://www.jgchina.com/ednns/ednnsbk/6/6.htm91.gif"></P><P>故而必定有:</P><P><img src="http://www.jgchina.com/ednns/ednnsbk/6/6.htm92.gif"></P></TD><TD width="20%" height=11></TD></TR><TR><TD width="12%" height=12><FONT size=2>也即是有</FONT></TD><TD width="68%" height=12><img src="http://www.jgchina.com/ednns/ednnsbk/6/6.htm93.gif"></TD><TD width="20%" height=12>(3-71)</TD></TR><TR><TD width="12%" height=15><FONT size=2>或者</FONT></TD><TD width="68%" height=15><img src="http://www.jgchina.com/ednns/ednnsbk/6/6.htm94.gif"></TD><TD width="20%" height=15>(3-72)</TD></TR></TABLE></CENTER></DIV></TD></TR><TR><TD width="100%" height=12><P>(2)对于图3-6所示的混合模糊神经网络,由于其输入是(N,M);同时,(N,M) 属于紧集合U,而且必须至少是 <P><img src="http://www.jgchina.com/ednns/ednnsbk/6/6.htm95.gif"></P><P>集合中的元素之一,亦即N=A<SUB>k</SUB>,M=B<SUB>k</SUB>,1≤k≤K。令</P><P>G={k|λ<SUB>k</SUB>=1,1≤k≤K}       (3-73)</P><P>由于λ<SUB>k</SUB>不可能全部为0,故G是非空集。所以,有θ&gt;0。
用m表示G所含的基本元素;为简单起见,设G={1,2,…,m},则有</P><DIV align=center><CENTER><TABLE height=449 cellSpacing=0 cellPadding=0 width="80%" border=0><TR><TD width="80%" height=43><img src="http://www.jgchina.com/ednns/ednnsbk/6/6.htm96.gif"></TD><TD width="20%" height=43>(3-74)</TD></TR><TR><TD width="80%" height=41><img src="http://www.jgchina.com/ednns/ednnsbk/6/6.htm97.gif"></TD><TD width="20%" height=41>(3-75)</TD></TR><TR><TD width="80%" height=18><FONT size=2>从而有</FONT></TD><TD width="20%" height=18></TD></TR><TR><TD width="80%" height=42><img src="http://www.jgchina.com/ednns/ednnsbk/6/6.htm98.gif"></TD><TD width="20%" height=42>(3-76)</TD></TR><TR><TD width="80%" height=98><FONT size=2>(3)考虑距离d</FONT> <P><img src="http://www.jgchina.com/ednns/ednnsbk/6/6.htm99.gif"></P><P>可写成</P></TD><TD width="20%" height=98></TD></TR><TR><TD width="80%" height=45><img src="http://www.jgchina.com/ednns/ednnsbk/6/6.htm100.gif"></TD><TD width="20%" height=45>(3-77)</TD></TR><TR><TD width="80%" height=102><FONT size=2>对于d(A,B),如果β&gt;0,A,B∈L。则有</FONT> <P><img src="http://www.jgchina.com/ednns/ednnsbk/6/6.htm101.gif"></P><P>同理,对于式(3—77)就有</P></TD><TD width="20%" height=102></TD></TR><TR><TD width="80%" height=42><img src="http://www.jgchina.com/ednns/ednnsbk/6/6.htm102.gif"></TD><TD width="20%" height=42>(3-78)</TD></TR><TR><TD width="80%" height=1><FONT size=2>(4)对于L中的A,B,C,有</FONT></TD><TD width="20%" height=1></TD></TR><TR><TD width="80%" height=18><img src="http://www.jgchina.com/ednns/ednnsbk/6/6.htm103.gif"></TD><TD width="20%" height=18>(3-79)</TD></TR></TABLE></CENTER></DIV></TD></TR><TR><TD width="100%" height=7><P>首先,对于A,B,C的α截集有 <P><img src="http://www.jgchina.com/ednns/ednnsbk/6/6.htm104.gif"></P><P><img src="http://www.jgchina.com/ednns/ednnsbk/6/6.htm105.gif"></P><P><img src="http://www.jgchina.com/ednns/ednnsbk/6/6.htm106.gif"></P><P>这都是闭区间。故有</P><P><img src="http://www.jgchina.com/ednns/ednnsbk/6/6.htm107.gif"></P><P>从式(3—59),可知式(3—79)成立。</P><P>(5)最后考虑d(Q’,Q)</P><P>从式(3—76).(3—77),(3—78)可知</P><DIV align=center><CENTER><TABLE cellSpacing=0 cellPadding=0 width="80%" border=0><TR><TD width="78%"><img src="http://www.jgchina.com/ednns/ednnsbk/6/6.htm108.gif"></TD><TD width="22%">(3-81)</TD></TR></TABLE></CENTER></DIV></TD></TR><TR><TD width="100%" height=11><P>从中有 </P><P><img src="http://www.jgchina.com/ednns/ednnsbk/6/6.htm109.gif"></P><P>也可写成</P><P><img src="http://www.jgchina.com/ednns/ednnsbk/6/6.htm110.gif"></P><P>故从式(3—79),则有</P><TABLE cellSpacing=0 cellPadding=0 width="80%" align=center border=0><TR><TD width="74%"><img src="http://www.jgchina.com/ednns/ednnsbk/6/6.htm111.gif"></TD><TD width="26%">(3-82)</TD></TR><TR><TD width="74%"><FONT size=2>从式(3—72),则有</FONT></TD><TD width="26%"></TD></TR><TR><TD width="74%"><img src="http://www.jgchina.com/ednns/ednnsbk/6/6.htm112.gif"></TD><TD width="26%">(3-83)</TD></TR></TABLE></TD></TR><TR><TD width="100%" height=52><P>再从式(3—81)有 </P><P><img src="http://www.jgchina.com/ednns/ednnsbk/6/6.htm113.gif"></P></TD></TR></TABLE>
b
 楼主| 发表于 2004-5-28 02:34:53 | 显示全部楼层
<TABLE height=1418 cellSpacing=0 cellPadding=0 width=778 border=0><TR><TD width="100%" height=8>< align=center>3.2 遗传算法</P></TD></TR><TR><TD width="100%" height=1471><>生物的进化是一个奇妙的优化过程,它通过选择淘汰,突然变异,基因遗传等规律产生适应环境变化的优良物种。遗传算法是根据生物进化思想而启发得出的一种全局优化算法。 </P><>遗传算法的概念最早是由Bagley J.D在1967年提出的;而开始遗传算法的理论和方法的系统性研究的是1975年,这一开创性工作是由Michigan大学的J.H.Holland所实行。当时,其主要目的是说明自然和人工系统的自适应过程。</P><P>遗传算法简称GA(Genetic Algorithm),在本质上是一种不依赖具体问题的直接搜索方法。遗传算法在模式识别、神经网络、图像处理、机器学习、工业优化控制、自适应控制、生物科学、社会科学等方面都得到应用。在人工智能研究中,现在人们认为“遗传算法、自适应系统、细胞自动机、混沌理论与人工智能一样,都是对今后十年的计算技术有重大影响的关键技术”。</P><P>3.2.1 遗传算法的基本概念</P><P>遗传算法的基本思想是基于Darwin进化论和Mendel的遗传学说的。</P><P>Darwin进化论最重要的是适者生存原理。它认为每一物种在发展中越来越适应环境。物种每个个体的基本特征由后代所继承,但后代又会产生一些异于父代的新变化。在环境变化时,只有那些熊适应环境的个体特征方能保留下来。</P><P>Mendel遗传学说最重要的是基因遗传原理。它认为遗传以密码方式存在细胞中,并以基因形式包含在染色体内。每个基因有特殊的位置并控制某种特殊性质;所以,每个基因产生的个体对环境具有某种适应性。基因突变和基因杂交可产生更适应于环境的后代。经过存优去劣的自然淘汰,适应性高的基因结构得以保存下来。</P><P>由于遗传算法是由进化论和遗传学机理而产生的直接搜索优化方法;故而在这个算法中要用到各种进化和遗传学的概念。这些概念如下:</P><P>一、串(String)</P><P>它是个体(Individual)的形式,在算法中为二进制串,并且对应于遗传学中的染色体(Chromosome)。</P><P>二、群体(Population)</P><P>个体的集合称为群体,串是群体的元素</P><P>三、群体大小(Population Size)</P><P>在群体中个体的数量称为群体的大小。</P><P>四、基因(Gene)</P><P>基因是串中的元素,基因用于表示个体的特征。例如有一个串S=1011,则其中的1,0,1,1这4个元素分别称为基因。它们的值称为等位基因(Alletes)。</P><P>五 、基因位置(Gene Position)</P><P>一个基因在串中的位置称为基因位置,有时也简称基因位。基因位置由串的左向右计算,例如在串S=1101中,0的基因位置是3。基因位置对应于遗传学中的地点(Locus)。</P><P>六、基因特征值(Gene Feature)</P><P>在用串表示整数时,基因的特征值与二进制数的权一致;例如在串S=1011中,基因位置3中的1,它的基因特征值为2;基因位置1中的1,它的基因特征值为8。</P><P>七、串结构空间S<SUP>S</SUP></P><P>在串中,基因任意组合所构成的串的集合。基因操作是在结构空间中进行的。串结构空间对应于遗传学中的基因型(Genotype)的集合。</P><P>八、参数空间S<SUP>P</SUP></P><P>这是串空间在物理系统中的映射,它对应于遗传学中的表现型(Phenotype)的集合。</P><P>九、非线性</P><P>它对应遗传学中的异位显性(Epistasis)</P><P>十、适应度(Fitness)</P><P>表示某一个体对于环境的适应程度。</P><P>遗传算法还有一些其它的概念,这些概念在介绍遗传算法的原理和执行过程时,再进行说明。</P><P>3.2.2遗传算法的原理</P><P>遗传算法GA把问题的解表示成“染色体”,在算法中也即是以二进制编码的串。并且,在执行遗传算法之前,给出一群“染色体”,也即是假设解。然后,把这些假设解置于问题的“环境”中,并按适者生存的原则,从中选择出较适应环境的“染色体”进行复制,再通过交叉,变异过程产生更适应环境的新一代“染色体”群。这样,一代一代地进化,最后就会收敛到最适应环境的一个“染色体”上,它就是问题的最优解。</P><P>一、遗传算法的目的</P><P>典型的遗传算法CGA(Canonical Genetic Algorithm)通常用于解决下面这一类的静态最优化问题:</P><P>考虑对于一群长度为L的二进制编码b<SUB>i</SUB>,i=1,2,…,n;有</P><P>b<SUB>i</SUB>∈{0,1}<SUP>L</SUP>        (3-84)</P><P>给定目标函数f,有f(b<SUB>i</SUB>),并且</P><P>0&lt;f(b<SUB>i</SUB>)&lt;∞</P><P>同时
f(b<SUB>i</SUB>)≠f(b<SUB>i+1</SUB>)</P><P>求满足下式</P><P>max{f(b<SUB>i</SUB>)|b<SUB>i</SUB>∈{0,1}<SUP>L</SUP>}            (3-85)</P><P>的b<SUB>i</SUB>。</P><P>很明显,遗传算法是一种最优化方法,它通过进化和遗传机理,从给出的原始解群中,不断进化产生新的解,最后收敛到一个特定的串b<SUB>i</SUB>处,即求出最优解。</P><P>二、遗传算法的基本原理</P><P>长度为L的n个二进制串bi(i=1,2,…,n)组成了遗传算法的初解群,也称为初始群体。在每个串中,每个二进制位就是个体染色体的基因。根据进化术语,对群体执行的操作有三种:</P><P>1.选择(Selection)</P><P>这是从群体中选择出较适应环境的个体。这些选中的个体用于繁殖下一代。故有时也称这一操作为再生(Reproduction)。由于在选择用于繁殖下一代的个体时,是根据个体对环境的适应度而决定其繁殖量的,故而有时也称为非均匀再生(differential reproduction)。</P><P>2.交叉(Crossover)</P><P>这是在选中用于繁殖下一代的个体中,对两个不同的个体的相同位置的基因进行交换,从而产生新的个体。</P><P>3.变异(Mutation)</P><P>这是在选中的个体中,对个体中的某些基因执行异向转化。在串bi中,如果某位基因为1,产生变异时就是把它变成0;反亦反之。</P><P>遗传算法的原理可以简要给出如下:</P><P>choose an intial population</P><P>determine the fitness of each individual</P><P>perform selection</P><P>repeat</P><P>    perform crossover</P><P>    perform mutation</P><P>    determine the fitness of each individual</P><P>    perform selection</P><P>until some stopping criterion applies</P><P>这里所指的某种结束准则一般是指个体的适应度达到给定的阀值;或者个体的适应度的变化率为零。</P><P>三、遗传算法的步骤和意义</P><P>1.初始化</P><P>选择一个群体,即选择一个串或个体的集合b<SUB>i</SUB>,i=1,2,...n。这个初始的群体也就是问题假设解的集合。一般取n=30-160。</P><P>通常以随机方法产生串或个体的集合b<SUB>i</SUB>,i=1,2,...n。问题的最优解将通过这些初始假设解进化而求出。</P><P>2.选择</P><P>根据适者生存原则选择下一代的个体。在选择时,以适应度为选择原则。适应度准则体现了适者生存,不适应者淘汰的自然法则。</P><P>给出目标函数f,则f(bi)称为个体bi的适应度。以</P><TABLE cellSpacing=0 cellPadding=0 width="80%" align=center border=0><TR><TD width="77%"><img src="http://www.jgchina.com/ednns/ednnsbk/6/6.2.ht40.gif"></TD><TD width="23%">(3-86)</TD></TR></TABLE></TD></TR><TR><TD width="100%" height=18><P>为选中bi为下一代个体的次数。 </P><P>显然.从式(3—86)可知:</P><P>(1)适应度较高的个体,繁殖下一代的数目较多。</P><P>(2)适应度较小的个体,繁殖下一代的数目较少;甚至被淘汰。</P><P>这样,就产生了对环境适应能力较强的后代。对于问题求解角度来讲,就是选择出和最优解较接近的中间解。</P><P>3.交叉
对于选中用于繁殖下一代的个体,随机地选择两个个体的相同位置,按交叉概率P。在选中的位置实行交换。这个过程反映了随机信息交换;目的在于产生新的基因组合,也即产生新的个体。交叉时,可实行单点交叉或多点交叉。</P><P>例如有个体</P><P>S1=100101</P><P>S2=010111</P><P>选择它们的左边3位进行交叉操作,则有</P><P>S1=010101</P><P>S2=100111</P><P>一般而言,交叉幌宰P。取值为0.25—0.75。</P><P>4.变异</P><P>根据生物遗传中基因变异的原理,以变异概率Pm对某些个体的某些位执行变异。在变异时,对执行变异的串的对应位求反,即把1变为0,把0变为1。变异概率Pm与生物变异极小的情况一致,所以,Pm的取值较小,一般取0.01-0.2。</P><P>例如有个体S=101011。</P><P>对其的第1,4位置的基因进行变异,则有</P><P>S'=001111</P><P>单靠变异不能在求解中得到好处。但是,它能保证算法过程不会产生无法进化的单一群体。因为在所有的个体一样时,交叉是无法产生新的个体的,这时只能靠变异产生新的个体。也就是说,变异增加了全局优化的特质。</P><P>5.全局最优收敛(Convergence to the global optimum)</P><P>当最优个体的适应度达到给定的阀值,或者最优个体的适应度和群体适应度不再上升时,则算法的迭代过程收敛、算法结束。否则,用经过选择、交叉、变异所得到的新一代群体取代上一代群体,并返回到第2步即选择操作处继续循环执行。</P><P>图3—7中表示了遗传算法的执行过程。</P><P align=center><img src="http://www.jgchina.com/ednns/ednnsbk/6/6.2.ht41.gif"></P><P align=center>图3-7 遗传算法原理</P></TD></TR><TR><TD width="100%" height=1104><P>3.2.3遗传算法的应用 </P><P>遗传算法在很多领域都得到应用;从神经网络研究的角度上考虑,最关心的是遗传算法在神经网络的应用。在遗传算法应用中,应先明确其特点和关键问题,才能对这种算法深入了解,灵活应用,以及进一步研究开发。</P><P>一、遗传算法的特点</P><P>1.遗传算法从问题解的中集开始嫂索,而不是从单个解开始。</P><P>这是遗传算法与传统优化算法的极大区别。传统优化算法是从单个初始值迭代求最优解的;容易误入局部最优解。遗传算法从串集开始搜索,复盖面大,利于全局择优。</P><P>2.遗传算法求解时使用特定问题的信息极少,容易形成通用算法程序。</P><P>由于遗传算法使用适应值这一信息进行搜索,并不需要问题导数等与问题直接相关的信息。遗传算法只需适应值和串编码等通用信息,故几乎可处理任何问题。</P><P>3.遗传算法有极强的容错能力</P><P>遗传算法的初始串集本身就带有大量与最优解甚远的信息;通过选择、交叉、变异操作能迅速排除与最优解相差极大的串;这是一个强烈的滤波过程;并且是一个并行滤波机制。故而,遗传算法有很高的容错能力。</P></TD></TR></TABLE>
b
 楼主| 发表于 2004-5-28 02:35:10 | 显示全部楼层
<>4.遗传算法中的选择、交叉和变异都是随机操作,而不是确定的精确规则。</P><>这说明遗传算法是采用随机方法进行最优解搜索,选择体现了向最优解迫近,交叉体现了最优解的产生,变异体现了全局最优解的复盖。</P><>5.遗传算法具有隐含的并行性</P><P>遗传算法的基础理论是图式定理。它的有关内容如下:</P><P>(1)图式(Schema)概念</P><P>一个基因串用符号集{0,1,*}表示,则称为一个因式;其中*可以是0或1。例如:H=1x x 0 x x是一个图式。</P><P>(2)图式的阶和长度</P><P>图式中0和1的个数称为图式的阶,并用0(H)表示。图式中第1位数字和最后位数字间的距离称为图式的长度,并用δ(H)表示。对于图式H=1x x0x x,有0(H)=2,δ(H)=4。</P><P>(3)Holland图式定理</P><P>低阶,短长度的图式在群体遗传过程中将会按指数规律增加。当群体的大小为n时,每代处理的图式数目为0(n<SUP>3</SUP>)。</P><P>遗传算法这种处理能力称为隐含并行性(Implicit Parallelism)。它说明遗传算法其内在具有并行处理的特质。</P><P>二、遗传算法的应用关键</P><P>遗传算法在应用中最关键的问题有如下3个</P><P>1.串的编码方式</P><P>这本质是问题编码。一般把问题的各种参数用二进制编码,构成子串;然后把子串拼接构成“染色体”串。串长度及编码形式对算法收敛影响极大。</P><P>2.适应函数的确定</P><P>适应函数(fitness function)也称对象函数(object function),这是问题求解品质的测量函数;往往也称为问题的“环境”。一般可以把问题的模型函数作为对象函数;但有时需要另行构造。</P><P>3.遗传算法自身参数设定</P><P>遗传算法自身参数有3个,即群体大小n、交叉概率P<SUB>c</SUB>和变异概率P<SUB>m</SUB>。</P><P>群体大小n太小时难以求出最优解,太大则增长收敛时间。一般n=30-160。交叉概率P<SUB>c</SUB>太小时难以向前搜索,太大则容易破坏高适应值的结构。一般取Pc=0.25-0.75。变异概率P<SUB>m</SUB>太小时难以产生新的基因结构,太大使遗传算法成了单纯的随机搜索。一般取P<SUB>m</SUB>=0.01—0.2。</P><P>三、遗传算法在神经网络中的应用</P><P>遗传算法在神经网络中的应用主要反映在3个方面:网络的学习,网络的结构设计,网络的分析。 <P>1.遗传算法在网络学习中的应用 <P>在神经网络中,遗传算法可用于网络的学习。这时,它在两个方面起作用 <P>(1)学习规则的优化 <P>用遗传算法对神经网络学习规则实现自动优化,从而提高学习速率。 <P>(2)网络权系数的优化 <P>用遗传算法的全局优化及隐含并行性的特点提高权系数优化速度。 <P>2.遗传算法在网络设计中的应用 <P>用遗传算法设计一个优秀的神经网络结构,首先是要解决网络结构的编码问题;然后才能以选择、交叉、变异操作得出最优结构。编码方法主要有下列3种: <P>(1)直接编码法 <P>这是把神经网络结构直接用二进制串表示,在遗传算法中,“染色体”实质上和神经网络是一种映射关系。通过对“染色体”的优化就实现了对网络的优化。 <P>(2)参数化编码法 <P>参数化编码采用的编码较为抽象,编码包括网络层数、每层神经元数、各层互连方式等信息。一般对进化后的优化“染色体”进行分析,然后产生网络的结构。 <P>(3)繁衍生长法 <P>这种方法不是在“染色体”中直接编码神经网络的结构,而是把一些简单的生长语法规则编码入“染色体”中;然后,由遗传算法对这些生长语法规则不断进行改变,最后生成适合所解的问题的神经网络。这种方法与自然界生物地生长进化相一致。 <P>3.遗传算法在网络分析中的应用 <P>遗传算法可用于分析神经网络。神经网络由于有分布存储等特点,一般难以从其拓扑结构直接理解其功能。遗传算法可对神经网络进行功能分析,性质分析,状态分析。 <P>遗传算法虽然可以在多种领域都有实际应用,并且也展示了它潜力和宽广前景;但是,遗传算法还有大量的问题需要研究,目前也还有各种不足。首先,在变量多,取值范围大或无给定范围时,收敛速度下降;其次,可找到最优解附近,但无法精确确定最扰解位置;最后,遗传算法的参数选择尚未有定量方法。对遗传算法,还需要进一步研究其数学基础理论;还需要在理论上证明它与其它优化技术的优劣及原因;还需研究硬件化的遗传算法;以及遗传算法的通用编程和形式等。</P>
您需要登录后才可以回帖 登录 | 注-册-帐-号

本版积分规则

小黑屋|手机版|Archiver|数学建模网 ( 湘ICP备11011602号 )

GMT+8, 2024-11-28 01:56 , Processed in 0.065060 second(s), 12 queries .

Powered by Discuz! X3.4

Copyright © 2001-2021, Tencent Cloud.

快速回复 返回顶部 返回列表