计算智能人工神经网络_第1页
计算智能人工神经网络_第2页
计算智能人工神经网络_第3页
计算智能人工神经网络_第4页
计算智能人工神经网络_第5页
已阅读5页,还剩48页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

第二部

计算智能

ComputationalIntelligence

计算智能的概念计算智能(ComputationalIntelligence)1992—贝兹德克(Bezdek):CI取决于数据,不依赖知识;AI应用知识精品.计算智能:生命科学+信息科学

计算智能是信息科学、生命科学、认知科学等不同学科相互交叉的产物。它主要借鉴仿生学的思想,基于人们对生物体智能机理的认识,采用数值计算的方法去模拟和实现人类的智能。计算智能的主要研究领域包括:神经计算、进化计算、模糊计算、蚂群计算等。计算智能的主要研究领域神经网络是一种对人类智能的结构模拟方法,它是通过对大量人工神经元的广泛并行互联,构造人工神经网络系统去模拟生物神经系统的智能机理的。进化计算是一种对人类智能的演化模拟方法,它是通过对生物遗传和演化过程的认识,用进化算法去模拟人类智能的进化规律的。模糊计算是一种对人类智能的逻辑模拟方法,它是通过对人类处理模糊现象的认知能力的认识,用模糊逻辑去模拟人类的智能行为的。人工智能与计算智能AI:基于知识处理CI:基于数值计算高级认知形式低级认知形式逻辑计算自然计算推理学习优化适应计算复杂度:CI--〉AI--–〉BI(Biological)大量实践证明,只有把AI和CI很好地结合起来,才能更好地模拟人类智能,才是智能科学技术发展的正确方向。CNNCPRCIANNAPRAIBNNBPRBI人类知识(+)传感输入知识(+)传感数据计算(+)传感器B~生物的A~符号的C~数值的复杂性复杂性输入层次

贝慈德克的智能的3个层次

组合优化问题求解局部搜索(LS:LocalSearch)遗传算法(GA:GeneticAlgorithm)人工神经网络(ANN:ArtificialNeuralNetwork)模拟退火算法(SA:SimulatedAnnealing)蚂蚁群算法(ACA:AntColonyAlgorithm)免疫算法(IA:ImmuneAlgorithm)粒子群优化算法(PSO:ParticleSwarmOptimization)……第六章人工神经网络

(ANN:ArtificialNeuralNetwork)人工神经网络概述多层前馈神经网络(BP网络)HOPFIELD神经网络HOPFIELD网络应用6.1人工神经网络概述(一)人工神经网络(ArtificialNeuralNetwork:ANN):抽象,简化与模拟大脑生物结构的计算模型,也称连接主义或并行分布处理(ParalellDistributedProcessing:PDP)模型人工神经元ANN的三大要素:神经元,网络拓扑结构,学习算法拓扑结构:分层结构,互连结构学习算法:监督型(有指导),非监督型(没指导)生物神经元结构神经元的工作机制神经元组成:细胞体(处理器)、树突(输入端)、轴突(输出端)神经元有两种工作状态:兴奋和抑制神经元间的连接权是可以接受外界刺激而改变的,这构成了学习机能的基础。什么是神经元网络神经元网络(NeuralNet)指由大量神经元互连而成的网络,有点象服务器互连而成的国际互连网(Internet).人脑有1000亿个神经元,每个神经元平均与10000个其他神经元互连,这就构成了人类智慧的直接物质基础。人工神经元的基本结构∑x1xnxiF()yi=f(uj)=f(∑wixi-θ)ujw1wnwi激励函数(或传播函数)要素:权值(wi),门限值(θ),非线性激励函数(f)状态:被激活的兴奋状态(ui>=θ)

没被激活的抑制状态(ui<θ)常用神经元激励函数(一)1-1a阶跃函数1-1b斜坡函数f(x)=1x≥1kx-1<x<1-1x≤-1f(x)=1x≥0-1x<0常用神经元激励函数(二)1-1Sigmoid函数f(x)=1/(1+exp(-x))yj=f((∑wijhi)-θj)激励函数为Sigmoid多层神经网络输入层隐层1x1xny1yn隐层2输出层Hj=f((∑wijxi)-θj)hj=f((∑wijhi)-θj)6.1人工神经网络概述(二)ANN的突出特点信息的分布存储:即使局部损坏,通过联想可恢复。自适应,自组织,自学习:根据环境自动改变网络及结构。

并行处理:速度快。非线性映射:任意精度逼近。从训练样本中自动获得知识:特别是针对复杂环境。ANN的应用---走向实用化诊断与检测:疾病诊断、故障检测等。识别:图像、文字、指纹、语音等。分析与预测:天气、市场、股票,决策控制、管理等。6.1人工神经网络概述(二)ANN的分类拓扑结构:无反反馈/有反馈、层次/全连接学习方法:有教师/无教师网络性能:连续型/离散型、线性/非线性确定性:确定性/随机型ANN的发展到50年代中期前到60年代末期到80年代初期至今 产生时期-〉高潮时期-〉低潮时期-〉蓬勃发展时期神经元模型 双层感知器模型69年Minsky论著 1982年Hopfield的成功求解TSPNP难题6.2单层感知机神经网络(一)单层感知机神经网络

:1957年Rosenblatt提出,可实现二分类学习算法(为二分类问题) Step1初始化劝值(wi)以及阀值

Step2提交训练示例(x1,…,xn,d),

如x属于A类,d=1;否则x属于B类,d=0; Step3计算输出

Step4修正数值:wij(t+1)=wij(t)+k[dj(t)-yj(t)]yj(t) Step5goto2,直到w对一切样本都稳定不变.

当f=sgn(wx-θ)时,以上学习算法一定收敛.yj=f((∑wijxi)-θj)单层感知机神经网络基本结构输入部分输出层x1xny1ymwij可解决的问题

两类线性可分模式的分类问题不能解决的问题复杂的模式分类问题

使用感知机的主要目的是为了对外部输入进行分类。罗森勃拉特已经证明,如果外部输入是线性可分的(指存在一个超平面可以将它们分开),则单层感知器一定能够把它划分为两类。其判别超平面由如下判别式确定:

作为例子,下面讨论用单个感知器实现逻辑运算的问题。事实上,单层感知器可以很好地实现“与”、“或”、“非”运算,但却不能解决“异或”问题。

y=f(w1x1+w2x2-θ)单层感知机分类器实例输入部分输出层x1x2yw2w1例1“与”运算(x1∧x2)(0,0)(1,1)(0,1)(1,0)与运算问题图示输入输出超平面阈值条件x1x2x1∧x2w1*x1+w2*x2-θ=0000w1*0+w2*0-θ<0θ>0010w1*0+w2*1

-θ<0θ>w2100w1*1+w2*0-θ<0θ>w1

111w1*1+w2*1-θ≥0θ≤w1+w2

可以证明此表有解,例如取w1=1,w2=1,θ=1.5,其分类结果如右图所示。其中,输出为1的用实心圆,输出为0的用空心圆。后面约定相同。例2“或”运算(x1∨x2)输入输出超平面阈值条件x1x2x1∨x2w1*x1+w2*x2-θ=0000w1*0+w2*0-θ<0θ>0011w1*0+w2*1

-θ≥0θ≤w2101w1*1+w2*0-θ≥0θ≤w1

111w1*1+w2*1-θ≥0θ≤w1+w2

此表也有解,例如取w1=1,w2=1,θ=0.5,其分类结果如右图所示。(0,1)(0,0)(1,0)与运算问题图示(1,1)例3“非”运算(¬x1)输入输出超平面阈值条件x1¬x1w1*x1-θ=001w1*0-θ≥0θ≤010w1*1

–θ<0θ>w1

此表也有解,例如取w1=-1,θ=-0.5,其分类结果如右图所示。

非运算问题图示01例4“异或”运算(x1XORx2)输入输出超平面阈值条件x1x2X1XORx2w1*x1+w2*x2-θ=0000w1*0+w2*0-θ<0θ>0011w1*0+w2*1-θ≥0θ≤w2101w1*1+w2*0-θ≥0θ≤w1

110w1*1+w2*1-θ<0θ>w1+w2

此表无解,即无法找到满足条件的w1、w2和θ,如右图所示。因为异或问题是一个非线性可分问题,需要用多层感知器来解决。(0,1)(0,0)(1,0)

异或运算问题图示(1,1)XOR问题A2(1,1)A1(0,0)B1(1,0)B2(0,1)无法用一条直线把节点正确分开---非线性问题XOR问题A2(1,1)A1(0,0)B1(1,0)B2(0,1)可以用二条直线把节点正确分开---多层网络6.2多层前馈网络(二)多层感知机神经网络(MPNN)MPNN的计算能力:激励函数为S型函数时,

二层MPNN:足可以解决任意分类判定问题.

三层MPNN:可形成任意复杂决策区域,以任意精度逼近任何连续函数.MPNN的应用领域:函数逼近,模式识别,分类等.BP学习算法:yj=f((∑wijhi)-θj)激励函数为Sigmoid三层感知机神经网络基本结构简化图输入层隐层1x1xny1yn隐层2输出层Hj=f((∑wijxi)-θj)hj=f((∑wijhi)-θj)x11y=x1

XORx2x1X2x121-1111-1输入层隐层输出层权值权值图5.14“异或”问题的多层感知器阈值0.5阈值-1.5阈值1.5(0,1)(0,0)(1,0)图5.15异或问题的解决(1,1)

隐层神经元x11所确定的直线方程为它可以识别一个半平面。隐层神经元x12所确定的直线方程为它也可以识别一个半平面。输出层神经元所确定的直线方程为它相当于对隐层神经元x11和x12的输出作“逻辑与”运算,因此可识别由隐层已识别的两个半平面的交集所构成的一个凸多边形,如图所示。

y=x1XORx2=(x1Vx2)AND(-x1V-x2)反向传播法(BackPropagation)(一)反向传播法(BP):1985年Rumellart等提出.

正向计算

:正向计算各层输出,计算最终输出与目标输出间的误差.

反向计算

:逐层传播误差信号,修正劝值,直到误差小于给定值. Step1初始化劝值(wij)及阀值为小的随机数. Step2施加输入(x0,x1,…,xn-1),期待输出(d0,d1,…,dn-1) Step3正向计算:各层的输出y0,y1,…,yn-1 Step4反向计算:wij(t+1)=wij(t)+kδiX’i(t) Step5goto3,直到w对一切样本都稳定不变.输出层:δi=yi(1-yi)(di-yi)中间层:δi=x’i(1-x’i)∑δkwik反向传播法(BP)(二)优点:算法推导清楚,精度高.计算能力强.

训练后的网络运行速度块.缺点:非线性优化,可能陷入局部最小区间.

学习算法的收敛速度慢,可能不收敛.

网络中隐含节点的设置无理论指导.基于神经网络的知识表示与推理

基于神经网络的知识表示并不像在产生式系统中那样独立地表示为每一条规则,而是将某一问题的若干知识在同一网络中表示(分布式)。例如,在有些神经网络系统中,知识是用神经网络所对应的有向权图的邻接矩阵及阈值向量表示的。异或逻辑的神经网络邻接矩阵如果用产生式规则描述,则该网络代表下述四条规则:IFx1=0ANDx2=0THENy=0IFx1=0ANDx2=1THENy=1IFx1=1ANDx2=0THENy=1IFx1=1ANDx2=1THENy=0基于神经网络的推理基于神经网络的推理是通过网络计算实现的。把用户提供的初始证据用作网络的输入,通过网络计算最终得到输出结果。正向神经网络推理的特征同层神经元完全并行,层间的信息传递串行。计算的数据结果是确定的,不会出现推理冲突。学习训练的模式是自适应推理。每个神经元的计算可以分为已知输入加权和与未知输入加权和,如果前者大于后者,则未知输入的输入不影响结果判断,从而在信息不完全时,照样可以进行推理。6.3HOPFIELD神经网络(一)HOPFIELD神经网络(HOP网络):全连接网络同步离散HOP网络:S(t+1)=sgn{WS(t)+I}

W:权值矩阵S:状态向量

当神经元不断更新状态使S(t+1)=S(t)时,网络收敛.主要用于:组合优化,记忆与联想.验证HOP网络的稳定性:能量函数是下降函数

E=-1/2∑∑wijvivj+∑θiviwii=0,wij=wji

设只有一个神经元的状态变化(1->0),那么E的增量:

ΔEi=1/2∑wijvj

θi

系统的稳定条件为:

θi>=∑wij6.3HOPFIELD神经网络(二)

节点间的权值:wij每个节点的状态:sisi=1如果

WS(t)+I>00其他情况wij6.3HOPFIELD神经网络(三)能量函数:决定网络的平衡状态,函数的极小点就是网络的平衡状态.设计能量函数,利用极小点(平衡状态)存储信息. m Wij=k∑(2xi-1)(2xj-1)i≠j其它wij=0; s=1

6.3HOP网络应用(一)1N皇后问题问题表示:矩阵能量函数:E=A/2∑(∑sij-1)2+A/2∑(∑sij-1)2

+(A+B)/2∑∑sij(1-sij) +C/2∑∑∑sij(si+k,j+k+si+k,j-k)ijiiijjj6.3HOP网络应用(二)2二分图问题问题表示:连接矩阵Csi=1若节点i属于节点集合A-1若节点i属于节点集合B

问题可转化为:在∑si=0的条件下,最小化-∑∑cijsisj能量函数:?6.3HOP网络应用(二)2二分图问题问题表示:连接矩阵Csi=1若节点i属于节点集合A-1若节点i属于节点集合B

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论