本科毕业论文-—基于神经网络的非线性自适应控制研究 联系客服

发布时间 : 星期三 文章本科毕业论文-—基于神经网络的非线性自适应控制研究更新完毕开始阅读46829234842458fb770bf78a6529647d27283481

青岛科技大学本科毕业设计(论文)

的输出不断地接近期望的输出,这一过程称为神经网络的学习,其本质是对可变权值的动态调整。

神经网络的学习方式可分为:有导师学习和无导师学习。

有导师的学习(SL.Supervised Learning):在学习过程中,网络根据实际输出与期望输出的比较进行连接权值的调整,将期望输出称为导师信号,代表了神经网络执行情况的最佳结果,它是评价学习的标准。如图2.1所示

图2.1有导师的学习

无导师的学习包括无监督学习( UL.Unsupervised Learning)和再励学习(RL.Reinforcement Learning)。

无监督学习没有导师信号提供给网络,而是提供一个关于网络学习表示方法质量的测量尺度,网络根据该尺度进行连接权值的调整,此时,网络的学习评价标准隐含于其内部。如图2.2所示

图2.2无监督学习

再励学习把学习看作试探评价(奖或惩)过程,学习机选择一个动作(输出)作用于环境之后,使环境的状态改变,并产生一个再励信号re(奖或惩)反馈至学习机。学习机依据再励信号与环境当前的状态选择下一动作作用于环境,

13

基于神经网络的非线性自适应控制研究

选择的原则是使受到奖励的可能性增大。如图2.3所示:

图2.3再励学习

在学习过程中,网络中各神经元的连接权需按一定的规则调整变化,这种权值调整规则称为学习规则。学习能力是神经网络最重要的一个能力,学习规则也几乎是神经网络的核心问咫之一。神经网络学习规则可分为如下几类: 1、Hebb学习规则

Hebb学习规则用于调整神经网络的权值,可以概括为:

1)如果一个突触(连接)两边的两个神经元被同时(即同步)激活,则该突触的能量就被选择性的增加。

(2)如果一个突触(连接)两边的两个神经元被异步激活,则该突触的能量就被有选择的消弱或者消除。

2、Delta规则:又称误差修正规则,根据这个规则的学习算法,通过反复迭代运算,直至求出最佳的权值,使期望输出与实际输出的差值展小。

3、竞争式学习规则:属于无教师学习方式,这种学习方式利用不同层间的神经元兴奋性联接,以及同一层内距离很近的神经元间发生同样的兴奋性联接,而距离较远的神经元产生抑制性联接,这种在神经网络中的兴奋性或抑制性联接机制中引入了竞争机制的学习方式,称为竞争式学习。其本质特征在于神经网络中高层次神经元对低层次神经元输入模式进行竞争式识别。

4、Boitzman机学习规则:也称为随机学习规则,是基于模拟退火的统计方法,适用于多层网络。它提供了学习隐节点的一个有效方法,能学习复杂的非线性可分函数。主要缺点是学习速度太慢。

14

青岛科技大学本科毕业设计(论文)

2.4神经网络的研究方法

神经网络的研究方法有许多,从传统工程方法上看,神经网络的宏观研究方法可分为:

l、动力系统理论:实现层次描述。动力系统理论方法主要研究与刻画动力系统的渐近行为,如平衡点、极限环、奇怪吸引子及系统的绝对稳定性。但动力系统理论不是万能的,它不能提供关于信息处理及如何有效地处理不同的动力系统的任何消息。

2、非线性规划理论:算法层次描述。算法层次主要研究如何求解一特殊的信息处理问题,非线性规划理论主要关心用于探索目标函数全局极小的有关算法的分析与设计。动力系统理论仅关心系统的动力学行为,非线性规划则仅关心如何活动目标函数的全局极小。

3、统计推理:计算水平描述。主要关心信息处理的基本目的,解释所得结果是否合理、正确。

神经网络是一个由大量神经元组成的动力学系统,根据概率统计的观点,从宏观上看,各神经元的状态可看作是一个随机变量,是服从统计规律的。从统计观点分析也可寻找神经网络系统中某种神经元状态的概率分布,这一分布的形式与网络的结构有关,其参数就是权系数。

2.5神经网络的能力

神经网络的能力应包含两个方面的内容,一是神经网络的信息存储能力;二是神经网

络的计算能力,对应如下问题:

1、在一个有N个神经元的神经网络中,它可以储存多少位的信息? 2、神经网络具有什么样的计算能力,也就是说它能够有效地计算哪些问题?

在神经网络模型中,存储能力与计算能力构成了神经网络理论的两个最基本的问题。

传统计算机在计算之前要从存储器中取出指令和待处理的数据,然后进行计算,最后将结果又放入到存储器中。这样,存储器与运算器之间的通道就成为提高计算能力的瓶颈。神经网络模型则从本质上解决了传统计算机的这个瓶颈问题,这是因为神经网络的运行是从输入到输出的值传递过程,在值传递的

15

基于神经网络的非线性自适应控制研究

同时完成了信息的存储和计算,从而将信息的存取和计算完善地结合在一起。

对于神经网络来说,计算可理解为给定一组输入而得到一组输出。由输入得到输出的过程也就是计算。神经网络的计算能力有三个显著的特点:一是它的非线性特性;二是大量的并行分布结构:三是它的学习和归纳能力。

迄今为止,神经网络至少可以完成以下信息处理任务:

nn1、教学逼近映射:开发合适的函数f:A?R?B?R,以自组织的方式

响应以下的样本集合:(x1,y1),(x2,y2),???(xm,ym)。

2、概率密度函数的估计:通过自组织的方式开发出一组等概率“锚点”来响应在空间Rn中按照一定确定概率密度函数p选取的一组向量样本

X1,X2,X3…。

3、从二进制数据基中提取相关知识:将从二进制数据基中提取的相关知识形成一种知识的聚集模型,这些知识依照数据基的自组织在它们之间有某种统计上的共性,并依据这些共性来响应输入的数据基。

4、形成拓扑连续及统计意义上的同构映射:这是对同定概率密度函数选择的输入数据进行自适应的一种自组织映射,最终使得数据空间上的不同项有某种同构。

5、最近相邻模式分类:这种能力可应用于暂态或暂稳态模式分类,并且可用层次性的存贮模式来表达存储。

6、数据聚集:这是采用自组织的方式所选择的“颗粒”或模式的聚类,以此来响应输入数据。

7、最优化问题的计算:这是用来求解局部甚至是全局最优解的。

2.6神经网络的应用

神经网络的脑式智能信息处理特征与能力,特别是其所具有的计算能力使其应用领域日益扩大,潜力R趋明显,其主要应用有以下几个方面:

1.传感器信息处理

传感器信息处理涉及到两个主要的问题:模式处理变换和模式识别。 2.信号处理

神经网络还被广泛地应用于信号处理,如目标检测、杂波去噪或畸变波的恢复、多目标跟踪等。神经网络也可用于多探测器信号的融合.

3.数据压缩

16