<TABLE height=2787 cellSpacing=0 cellPadding=0 width="100%" border=0><TR><TD width="100%" height=1521><>考虑偏差函数J<SUB>E</SUB></P><><img src="http://www.jgchina.com/ednns/ednnsbk/5.2/5.2.ht13.gif"></P><>其中:1≥λ<SUB>0</SUB>≥λ<SUB>1</SUB>≥...≥λ<SUB>t-1</SUB>是一个权系数序列,它们的作用用于强调最新的数据,减弱旧数据的影响。</P><P>对象仿真器PE训练的结果应使偏差函数J<SUB>E</SUB>最小。</P><P>对象仿真器PE执行训练,为了方便说明训练算法起见,考虑在采样序号为k的时刻的m维输入学习向量X<SUB>Ei</SUB>(k-1-i),根据式(2.34)有</P><P>X<SUB>E.i</SUB>(k-1-i)=[y(k-1-i),...,y(k-p-i),u(k-1-i),...,u(k-q-1-i)]<SUP>T</SUP> (2.36)</P><P>在学习中,BP算法以下式表示</P><P>BP(ψ,X,y,y<SUB>E,i</SUB>)</P><P>其中:BP为四算法名称,为映射,x为输入向量,y为期望输出,yE,i为实际输出。</P><P>PF训练的算法过程如下:</P><P>Step1:READ y(k)</P><P>step2:{仿真器PE训练 }</P><P>i——t-1</P><P>REPEAT</P><P>y<SUB>E</SUB><SUB>,i</SUB>——E(X<SUB>E,i</SUB>)</P><P>BP(ψ<SUB>E</SUB>,X<SUB>E,i</SUB>,λ<SUB>i</SUB>y(k-i),y<SUB>E,i</SUB>)</P><P>i——i-1</P><P>UNTIL(i<0)</P><P>Step 3:{产生控制信号u}</P><P>X<SUB>c</SUB>——[r(k+1),y(k),...,y(k-p+1),u(k-1),...,u(k-q)]<SUP>T</SUP> or [r(k+1),r(k),...,r(k-p+1),u(k-1),...,u(k-q)]<SUP>T</SUP></P><P>u(k)——ψ<SUB>c</SUB>(X<SUB>c</SUB>)</P><P>Step 4:以u(k)去控制对象,并持续T<SUB>s</SUB>时间。</P><P>Step 5:{数据移动}</P><P>i——t-1</P><P>REPEAT</P><P>X<SUB>E,i</SUB>=X<SUB>E,i-1</SUB></P><P>i——i-1</P><P>UNTIL(i=0);</P><P>Step 6:{产生最新数据向量}</P><P>X<SUB>E,0</SUB>——[y(k),y(k-1),...,y(k-p+1),u(k),...,u(k-q)]<SUP>T</SUP></P><P>Step 7:k——k+1</P><P>Step 8:转向Step 1</P><P>对象仿真器PE训练例子:设k=10,则采样结果有y(10),并且取p=3,q=2,t=3.则在存贮器中存放有(p—1+t)=5个先前输出值y1即</P><P>y(9),y(8),……,y(5)</P><P>同时,有(q+t)=5个先前的控制值u,即</P><P>u(9),u(8),…,u(5)</P><P>则PE的输入学习向量为:</P><P>X<SUB>E,0</SUB>(9)=[y(9),y(8),y(7),u(9),u(8),u(7)]<SUP>T</SUP></P><P>X<SUB>E,1</SUB>(8);[y(8),y(7),y(6),u(8),u(7),u(6)]<SUP>T</SUP></P><P>X<SUB>E,2</SUB>(7)=[y(7),y(6),y(5),u(7),u(6),u(5)]<SUP>T</SUP></P><P>用PE<SUP>k·i</SUP>表示取在采样时刻k时,第i次学习后的状态;用ψ<SUB>E</SUB><SUP>k.i</SUP>表示PE<SUP>k·i</SUP>所执行的映射.则有ψ<SUP>10.0</SUP>,ψ<SUP>10.1</SUP>,ψ<SUP>10.2</SUP>。</P><P align=center><img src="http://www.jgchina.com/ednns/ednnsbk/5.2/5.2.ht14.gif"></P><P align=center>图2-12 对象仿真器PE的训练</P></TD></TR><TR><TD width="100%" height=294><P>根据式(2.35).对于第k时刻应有 </P><P>y<SUB>E,i</SUB>(k-i)=ψ<SUB>E</SUB><SUP>k,i</SUP>[X<SUB>E,i</SUB>(k-1-i)] (2.37)</P><P>从而有</P><P>y<SUB>E,0</SUB>(10)=ψ<SUB>E</SUB><SUP>10,0</SUP>[X<SUB>E,0</SUB>(9)]</P><P>y<SUB>E,1</SUB>(9)=ψ<SUB>E</SUB><SUP>10,1</SUP>[X<SUB>E,1</SUB>(8)]</P><P>y<SUB>E,2</SUB>(8)=ψ<SUB>E</SUB><SUP>10,2</SUP>[X<SUB>E,2</SUB>(7)]</P><P>很明显,有</P><P>ψ<SUB>E</SUB><SUP>9,0</SUP>(.)=ψ<SUB>E</SUB><SUP>10,1</SUP>(.)</P><P>即有</P><P>ψ<SUB>E</SUB><SUP>k,0</SUP>(.)=ψ<SUB>E</SUB><SUP>k+1,1</SUP>(.)</P><P>在这个例子中,PE训练的情况如图2—12所示。</P><P>二、神经控制器NC训练学习</P><P>神经网络控制器NC的训练学习有两种不同的逼近方法, 一种是直接逆控制误差逼近(The Direct Inverse Control Error Approach),另一种是预测输出误差逼近(The Predicted Output Error Approach)。根据上述这两种不同的逼近方法其训练学习的过程不同。</P><P>1.直接逆控制误差逼近训练学习</P><P>假定在k+1采样时刻的现行输出为y(k+1);y先前的P-1+t个值,u先前的q+t个值存贮在存贮器中;有y(k)…,y(k-p+1-t);u(k)…,u(k-q-t)。</P><P>从图2—9所示的直接逆控制结构可知:可以用X<SUB>c</SUB><SUP>*</SUP>(k-i),u(k-i)数据对对神经网络控制器NC进行训练;其中</P><P>X<SUB>c</SUB><SUP>*</SUP>(k)=[y(k+1),...,y(k-p+1),u(k-1),...,u(k-q)]<SUP>T</SUP> (2.38)</P><P>当取i=0,1,…,t-1,时,显然有t对X<SUB>c</SUB><SUP>*</SUP>(k—i),u(k—i);它们用于k+1时刻对NC的训练。</P><P>k+1时刻的第i个m维输入学习向量为</P><P>X<SUP>*</SUP><SUB>c,i</SUB>(k-i)=[y(k+1-i),......,y(k-p+1-i),u(k-1-i),......,u(k-q-i)]<SUP>T</SUP> (2.39)</P><P>则在神经控制器NC的输出有u<SUB>c</SUB>(k—i)</P><P>u<SUB>c,i</SUB>(k-i)=ψ<SUB>c</SUB>[X<SUP>*</SUP><SUB>c,i</SUB>(k-i)] (2.40)</P><P>考虑偏差函数J<SUB>c</SUB>。</P><TABLE cellSpacing=0 cellPadding=0 width="80%" align=center border=0><TR><TD width="80%"><img src="http://www.jgchina.com/ednns/ednnsbk/5.2/5.2.ht15.gif"></TD><TD width="32%">(2.41)</TD></TR></TABLE></TD></TR><TR><TD width="100%" height=1537><P>其中:1≥λ<SUB>0</SUB>≥λ<SUB>1</SUB>≥...≥λ<SUB>t-1</SUB> </P><P>并有δ<SUB>k,i</SUB>=-aJ<SUB>c</SUB>/a<SUB>uc,i</SUB></P><P>δ<SUB>k,i</SUB>=λ<SUB>i</SUB>[u(k-i)-u<SUB>c,i</SUB>(k-i)] (2.42)</P><P>从式(2.41)看出,以J<SUB>c</SUB>为训练时的偏差函数并不直接涉及系统的输出y的偏差。因此,会产生神经控制器NC训练结果为零偏差,但控制性能很差的效果。所以,为了克服这种问题,一般把直接逆控制误差最小化的训练方法和其它方法,例如与对象输出误差最小化的法相结合,从而使NC训练和控制性能效果都能取得良好的结果。为了便于说明神经控制器NC的训练.考虑在采样序号为k时的m维学习向量X<SUP>*</SUP><SUB>c,i</SUB>(k-1-i)</P><P>X<SUP>*</SUP><SUB>c,i</SUB>(k-1-i)=[y(k-i),y(k-1-i)...,y(y(k-p-i),u(k-2-i),...,u(k-q-1-i)]<SUP>T</SUP> (2.43)</P><P>在学习中,BP算法以下式表示</P><P>BP(ψ,X,u,u<SUB>c,i</SUB>)</P><P>其中:ψ为NC映射,x为输入学习向量,u为NC期望输出,u<SUB>c</SUB><SUB>,i</SUB>为NC实际输出。</P><P>NC的训练算法过程如下:</P><P>Step 1:READ y(k)</P><P>Step 2:{取最新数据向量}</P><P>X<SUP>*</SUP><SUB>c,0</SUB>——[y(k),...,y(k-p),u(k-2),...,u(k-q-1)]<SUP>T</SUP></P><P>Step 3:{控制器训练}</P><P>i——t-1</P><P>REPEAT</P><P>u<SUB>c,i</SUB>——ψ<SUB>c</SUB>(X<SUP>*</SUP><SUB>c,i</SUB>)</P><P>BP(ψ<SUB>c</SUB>,X<SUP>*</SUP><SUB>c,i</SUB>,λ<SUB>i</SUB>u(k-1-i),λ<SUB>i</SUB>u<SUB>c,i</SUB>)</P><P>i——i-1</P><P>UNTIL(i<0)</P><P>Step 4:{产生控制信号u}</P><P>X<SUB>c</SUB>=[r(k+1),y(k),...,y(k+1-p),u(k-1),...,u(k-q)]<SUP>T</SUP> or [r(k+1),r(k)...,r(k+1-p),u(k-1),...,u(k-q)]<SUP>T</SUP></P><P>u(k)——ψ<SUB>c</SUB>(X<SUB>c</SUB>)</P><P>Step 5:用u(k)去控制对象,并持续T。</P><P>Step 6:{数据移动}</P><P>i——t-1</P><P>REPEAT</P><P>X*c,i——X*ci-1</P><P>i——i-1</P><P>UNTIL(I=0)</P><P>Step 7:K——k+1</P><P>Step 8:转向Step 1</P><P>用直接逆控制偏差逼近法对NC训练的例子:设现行采样时刻为k=9,故对象有输出y(9);取P=2,q=3,t=3,则在存贮器中存放有(p+t-1)=4个先前输出值y,即</P><P>y(8),y(7),y(6),y(5)</P><P>同时,有(q+1)=5个先前控制值u,即</P><P>u(7),u(6),u(5),u(4),u(3)</P><P>根据式(2.43),则NC的输入学习向量在k=9时有</P><P>X<SUP>*</SUP><SUB>c,0</SUB>(8)=[y(9),y(8),y(7),u(7),u(6),u(5)]<SUP>T</SUP></P><P>X<SUP>*</SUP><SUB>c,1</SUB>(7)=[y(8),y(7),y(6),u(6),u(5),u(4)]<SUP>T</SUP></P><P>X<SUP>*</SUP><SUB>c,2</SUB>(6)=[y(7),y(6),y(5),u(5),u(4),u(3)]<SUP>T</SUP></P><P>用NC<SUP>k·1</SUP>表示NC在采样时刻k时.第i次学习后的状态;用ψ<SUB>c</SUB><SUP>k.i</SUP>表示NC<SUP>k.i</SUP>所实现的映射.则有ψ<SUB>c</SUB><SUP>9.0</SUP><SUB>,</SUB>ψ<SUB>c</SUB><SUP>9.1</SUP><SUB>,</SUB>ψ<SUB>c</SUB><SUP>9.2</SUP></P><P>根据式(2.40),在第k采样周期中,有</P><P>u<SUB>c,i</SUB>(k-i)=ψ<SUB>c</SUB><SUP>k+1,i</SUP>[X<SUP>*</SUP><SUB>c,i</SUB>(k-i)] (2.44)</P><P>从而有映射结果:</P><P>u<SUB>c,0</SUB>(8)=ψ<SUB>c</SUB><SUP>9,0</SUP>[X<SUP>*</SUP><SUB>c,0</SUB>(8)]</P><P>u<SUB>c,1</SUB>(7)=ψ<SUB>c</SUB><SUP>9,1</SUP>[X<SUP>*</SUP><SUB>c,1</SUB>(7)]</P><P>u<SUB>c,2</SUB>(6)=ψ<SUB>c</SUB><SUP>9,2</SUP>[X<SUP>*</SUP><SUB>c,2</SUB>(6)]</P><P>而训练NC时,有数据输入u(8),u(7),u(6)它们和u<SUB>c,0</SUB>(8),u<SUB>c,1</SUB>(7),u<SUB>c,2</SUB>(6)的偏差就组成了式(2.41)所示的偏差函数Jc。</P><P>在实际训练中需要把图2—10所示的直接适应控制或图2—11所示的间接适应控制方法和直接逆控制误差逼近方法相结合,才能实现取得对象输出误差最小的结果。</P><P>把间接适应控制的简单学习和直接逆控制误差逼近的多次学习相结合,从而在一个采样周期含有4个训练周期。这种情况如图2—13所示。</P><P>在图2—13中.左边3个学习训练过程是神经网络控制器NC单独学习的过程,其学习步骤在上面已经给出。而右边的1个学习训练过程是间接适应控制和直接逆控制误差逼近相结合的学习;由于这时采样时刻是k=9,故对象仿真器表示为PE<SUP>9</SUP>,神经控制器表示NC<SUP>9</SUP>在PE<SUP>9</SUP>和NC<SUP>9</SUP>相结合的学习中,输入的训练学习数据对为r(9),X<SUB>c</SUB>(8),并有</P><P>X<SUB>c</SUB>(8)=[r(9),y(8),y(7),u(7),u(6),u(5)]<SUP>T</SUP></P><P>而r(9)是采样时刻k=9时的给定输入信号</P><P align=center><img src="http://www.jgchina.com/ednns/ednnsbk/5.2/5.2.ht16.gif"></P><P align=center><img src="http://www.jgchina.com/ednns/ednnsbk/5.2/5.2.ht17.gif"></P><P align=center>(b)</P><P align=center>图2-13 直接逆控制误差和间接适应控制逼近NC的过程</P></TD></TR><TR><TD width="100%" height=335><P>神经网络控制器NC在这时的状态用NC<SUP>9</SUP>表示.则其映射用ψ<SUB>c</SUB><SUP>9</SUP>,根据式(2.21)(2.22)从而有控制输出u<SUB>c</SUB>(8): </P><P>u<SUB>c</SUB>(8)=ψ<SUB>c</SUB><SUP>9</SUP>[X<SUB>c</SUB>(8)]</P><P>对象仿真器PE这时的状态用PE<SUP>9</SUP>表示,则其映射用ψ<SUB>E</SUB><SUP>9</SUP>表示,这时有X<SUB>E</SUB>(8)</P><P>X<SUB>E</SUB>(8)=[y(8),y(7),y(6),uc(8),u(7),u(6)]<SUP>T</SUP></P><P>从而有PE输出y<SUB>E</SUB>(9)</P><P>y<SUB>E</SUB>(9)=ψ<SUB>E</SUB><SUP>9</SUP>[X<SUB>E</SUB>(8)]</P><P>利用偏差e<SUB>E</SUB>.即e<SUB>E</SUB>=r(9)—y<SUB>E</SUB>(9),取偏差函数J<SUB>E</SUB></P><P>J<SUB>E</SUB>=0.5[r(9)-y<SUB>E</SUB>(9)]<SUP>2</SUP></P><P>则可以对NC进行训练学习。</P><P>2.预测输出误差逼近训练学习</P><P>直接逆控制误差逼近是以神经网络控制器NC输出的控制信号uc和期望控制信号u的误差进行逼近训练的。预测输出误差逼近的训练方法与之不同,它是以对象仿真器PE的输出yE和期望给定r的误差进行训练的,训练的对象是神经网络控制器NC。预测输出误差逼近训练学习的系统结构框图如图2—14所示。</P><P align=center><img src="http://www.jgchina.com/ednns/ednnsbk/5.2/5.2.ht19.gif"></P><P align=center>图2-14 预测输出误差逼近训练的结构</P></TD></TR><TR><TD width="100%" height=309><P>从图2—14所示结构可知:NC接收输入向量X<SUB>c</SUB>,从而产生u<SUP>*</SUP>输出;而PE接收输入向量x<SUB>E</SUB>,x<SUB>E</SUB>由u*,y形成,从而产生输出y<SUP>*</SUP>。最后有 </P><P>e<SUB>E</SUB>=r-y<SUP>*</SUP></P><P>则可用于构成偏差函数J,用于训练。</P><P>假定在k+1采样周期内,给定值r有t个值存贮于存贮器中.即有</P><P>r(k+1-i) i=0,1,......,t-1</P><P>即是 r(k+1),r(k),......,r(k+2-t)</P><P>对象输出y有包括y(k+1)在内的p+t个值存于存贮器中,即有</P><P>y(k+1),y(k),y(k-1),......,y(k+2-p-t)</P><P>控制器输出u的先前q+t个值也存于存贮器中,即有</P><P>u(k-1),u(k-2),...,u(k-q-t)</P><P>从式(2.21)和式(2.23)可知在存贮器中等于存放了x<SUB>c.i</SUB>(k-i)</P><P>X<SUB>c,i</SUB>(k-i)=[r(k+1-i),y(k-i),...,y(k-p+1-i),u(k-1-i),u(k-2-i),...,u(k-q-i)]<SUP>T</SUP></P><P><SUP>或者</SUP></P><P>X<SUB>c,i</SUB>(k-i)=[r(k+1-i),r(k-i),...,r(k-p+1-i),u(k-1-i),u(k-2-i),...,u(k-q-i)]<SUP>T</SUP></P><P>在进入k+1采样周期时,神经网络控制器NC的状态为NC<SUP>k+1,1</SUP>,故其映射表示为ψ<SUB>c</SUB><SUP>k+1</SUP>;对象仿真器PE不执行学习,其状态表示为PE<SUP>k+1</SUP>,映射表示为ψ<SUB>E</SUB><SUP>k+1</SUP>。</P><P>首先,在有输入向量x<SUB>c.i</SUB>(k-i)时,NC产生输出u<SUP>*</SUP></P><P>u<SUP>*</SUP>(k-i)=ψ<SUB>c</SUB><SUP>k+1</SUP>,i[X<SUB>c,i</SUB>(k-i)] (2.45)</P><P>很明显,则在对象的输入形成向量X<SUP>*</SUP><SUB>E,i</SUB>(k-i)</P><P>X<SUP>*</SUP><SUB>E,i</SUB>(k-i)=[y(k-i),...,y(k-p+1-i),u<SUP>*</SUP>(k-i),...,u<SUP>*</SUP>(k-q-i)]<SUP>T</SUP> (2.46)</P><P>随后,则由对象仿真器PE输出预测值y<SUP>*</SUP></P><P>y<SUP>*</SUP>(k+1-i)=ψ<SUB>E</SUB><SUP>k+1</SUP>[X<SUP>*</SUP><SUB>E</SUB>,i(k-i)] (2.47)</P><P>最后,则可以得到预测偏差e<SUB>E</SUB></P><P>e<SUB>E</SUB>=r(k+1-i)-y<SUP>*</SUP>(k+1-i) (2.48)</P><P>取偏差函数J<SUB>E</SUB>为</P><TABLE cellSpacing=0 cellPadding=0 width="80%" align=center border=0><TR><TD width="65%"><img src="http://www.jgchina.com/ednns/ednnsbk/5.2/5.2.ht18.gif"></TD><TD width="35%">(2.49)</TD></TR></TABLE></TD></TR><TR><TD width="100%" height=1460><P>神经网络控制器NC训练过程可以理解如下:把NC和PE看成一个单一的多层神经网络MNN,在k+1采样周期中,每一个输入向量X<SUB>c.i</SUB>(k—i),i=0,1,…,t-1;都会产生相应的预测偏差如式(2.48)所示。训练的目的就是使式(2.49)所示的偏差函数JE最小化。 </P><P>神经网络控制器KC的预测输出误差逼近方法进行训练学习的过程中,考虑k采样时刻的输入向量X<SUB>c,i</SUB>(k-1-i)</P><P>X<SUB>c,i</SUB>(k-1-i)=[r(k-i),y(k-1-i),...,y(k-p-i),u(k-2-i),...,u(k-q-1-i)]<SUP>T</SUP> (2.50)</P><P>或者</P><P>X<SUB>c,i</SUB>(k-1-i)=[r(k-i),r(k-1-i),...,r(k-p-i),u(k-2-i),...,u(k-q-1-i)]<SUP>T</SUP> (2.51)</P><P>在结构中,把NC和PE看成一个单一的网络,并且用(ψ<SUB>c</SUB>+ψ<SUB>E</SUB>)表示。则BP算法用下式表示</P><P>BP(ψ<SUB>c</SUB>+ψ<SUB>E</SUB>,X,r,y<SUP>*</SUP>)</P><P>其中:ψ<SUB>c</SUB>+ψ<SUB>E</SUB>为NC和PE组成的单一网络,x为输入学习向量,r为给定值即期望值,y*为预测输出。
NC的训练算法步骤如下:</P><P>Step 1:READ y(k)</P><P>Step 2:{NC通过预测误差逼近训练}</P><P>i——t-1</P><P>REPEAT</P><P>j——0</P><P>REPEAT</P><P>u<SUB>j</SUB><SUP>*</SUP>——ψ<SUB>c</SUB>(X<SUB>c,i+j</SUB>)</P><P>j——j+1</P><P>UNTIL(j>q)</P><P>{产生PE的输入向量}</P><P>X<SUP>*</SUP><SUB>E,i</SUB>——[y(k-1-i),...,y(k-p-i),u<SUB>0</SUB>*,u<SUB>1</SUB>*,...,u<SUB>q</SUB>*]<SUP>T</SUP></P><P>{产生预测输出}</P><P>y*——E(X<SUP>*</SUP><SUB>E,i</SUB>)</P><P>BP(ψ<SUB>c</SUB>+ψ<SUB>E</SUB>,X<SUB>c,i</SUB>,λ<SUB>i</SUB>r(k-i),λ<SUB>i</SUB>y*)</P><P>i——i-1</P><P>UNTIL(i=0)</P><P>Step 3:{用最新数据训练}</P><P>BP(ψ<SUB>c</SUB>+ψ<SUB>E</SUB>,X<SUB>c,0</SUB>,λ<SUB>i</SUB>r(k),λ<SUB>i</SUB>y(k))</P><P>Step 4:{数据移动}</P><P>i——t+q+1</P><P>REPEAT</P><P>Xc,i——Xc,i-1</P><P>i——i-1</P><P>UNTIL(i=0)</P><P>Step 5:{产生控制信号}</P><P>X<SUB>c,0</SUB>=[r(k+1),y(k),...,y(k+1-p),u(k-1),...,u(k-q)]<SUP>T</SUP> or [r(k+1),r(k),...,r(k+1-p),u(k-1),...,u(k-q)]<SUP>T</SUP></P><P>u(k)——ψ<SUB>c</SUB>(X<SUB>c,0</SUB>)</P><P>Step 6:用u(k)去控制对象,并持续T。</P><P>Step 7:k—k+1</P><P>Step 8:转回Step 1</P><P>下面给出一个用预测输出误差逼近方法训练NC的例子:假定现行采样周期为k=9,则有对象输出y(k),取P=2,q=3,t=3;则在存贮器中存有先前输出值y共(p+t-1)=4个,即y(8),y(7),y(6),y(5)</P><P>同时,有(q+t)=5个先前控制值u,即</P><P>u(7),u(6),u(5),u(4),u(3)</P><P>根据式(2.50),则有</P><P>x<SUB>c.0</SUB>(8)=[r(9),y(8),y(7),u(7),u(6),u(5)]<SUP>T</SUP></P><P>x<SUB>c.1</SUB>(7)=[r(8),y(7),y(6),u(6),u(5),u(4)]<SUP>T</SUP></P><P>x<SUB>c.2</SUB>(6)=[r(7),y(6),y(5),u(5),u(4),u(3)]<SUP>T</SUP></P><P>参考图2—14所示的学习结构,则学习过程如图2—15中所示。</P><P align=center><img src="http://www.jgchina.com/ednns/ednnsbk/5.2/5.2.ht20.gif"></P><P align=center>(a)</P><P align=center><img src="http://www.jgchina.com/ednns/ednnsbk/5.2/5.2.ht21.gif"></P><P align=center>(b)</P></TD></TR><TR><TD width="100%" height=13><P align=center>图2—15 预测输出误差逼近训练NC</P></TD></TR></TABLE> |