码迷,mamicode.com
首页 > 其他好文 > 详细

神经网络与深度学习——《机器学习及应用》汪荣贵 机械工业出版社

时间:2019-08-26 23:04:40      阅读:190      评论:0      收藏:0      [点我收藏+]

标签:深度网络   总结   mamicode   输出   深度   视觉   高斯   数加   基本知识   

摘录自《机器学习及应用》汪荣贵 机械工业出版社

总结了一些神经网络与深度学习中的一些网络介绍。

1.神经元与感知机

(1)关于激活函数

技术图片

 (2)MLP

MLP模型的网络结构没有环路或回路,故是一类前馈网络模型。MLP模型中隐含层的层数可为一层也可为多层。对于MLP模型和BP神经网络这样包含多个数据处理层的前馈网络模型而言,其参数更新过程通常较为复杂。这是因为这类模型的最终输出与之前多层的连接权重相关,相当于多层嵌套的函数。若直接使用类似于梯度下降的优化方法对模型进行训练,则无法直接求得各结点所对应误差以及参数所对应梯度。此时可以考虑使用反向传播算法对误差和参数所对应的梯度进行逐层求解,故通常亦将多层前馈神经网络称为BP神经网络
技术图片

2 神经网络常用模型

2.1 前馈神经网络:径向基网络和自编码网络。

(1)RBF网络:
  前述MLP模型与BP神经网络模型均为全局逼近型前馈网络模型。所谓全局逼近型网络,是指任意一个或多个网络模型参数对神经网络模型的任意输出均存在影响,每个参与模型训练的样本均会调整模型的全部可学习参数。作为与MLP模型与BP神经网络模型不同的另外一种前馈网络模型,径向基函数(Radial Basis Function,RBF)神经网络则是一种局部逼近型网络模型。所谓局部逼近型网络,是指网络模型输出仅与少数几个连接权重相关,对于每个参与模型训练的样本,通常仅有少数与其相关的权重需要更新。这种局部性的参数更新方式有利于加快模型训练过程。通常将径向基函数神经网络简称为径向基网络或RBF网络。
  不同于回归任务的数据拟合,RBF网络对于此类问题的求解思路则是通过对已知离散数据进行插值的方式确定网络模型参数。
技术图片

 

径向基函数的自变量是距离。有很多可供选择的径向基函数:高斯径向基函数,反演S径向基函数等。正规化径向基网络的输入层结点数目与样本维数相同,用于接收数据输入??;隐含层结点数目与样本个数相同,并且这些神经元的激活函数均采用径向基函数;输出层结点将隐含层的处理结果进行加权求和得到输出向量。由于正规化径向基网络参数多,难以训练,且隐藏层的神经元仅用来非线性映射,并不用来拟合,故可减少神经元的个数,降低复杂度的同时又不会影响非线性可分的分类问题的效果,通过减少神经元出现的径向基网络称之为广义径向基网络。
技术图片

技术图片

技术图片

技术图片

(2)自编码器:能实现自编码器的神经网络。

技术图片

技术图片

自编码器隐含层的结点数目主要取决于具体问题的特点和需要,通常将隐含层的偏置结点记为该隐含层的第0个结点。自编码器的模型训练通常使用不带标注信息的示例样本,故是一种无监督学习方式。若自编码器隐含层神经元数目s大于输入数据维度m即可实现升维,即稀疏编码。稀疏编码的目标函数:

技术图片

技术图片

2.2 反馈神经网络: 玻尔兹曼机

从系统稳定性角度出发设计目标函数。由于系统越稳定则其能量越低,故为得到一个稳定的模型输出,可设计与网络模型相关的能量函数作为网络模型优化的目标函数,由此实现对神经网络模型的优化求解。玻尔兹曼机便是此类神经网络的代表模型。 

 技术图片

 技术图片

技术图片

3 浅度学习,深度学习基本知识

  神经网络模型作为一个通用逼近函数具有非常强大的拟合能力,包含一个隐含层的神经网络模型可以逼近任意连续函数,而包含两个隐含层的神经网络模型可以逼近任意函数。数据处理层数较少的神经网络模型容量较低,基于此类模型的机器学习一般统称为浅层学习。前述感知机模型、径向基网络、自编码器以及玻尔兹曼机等神经网络模型均为浅层学习模型。深度学习是与浅层学习相对应的概念,深度网络模型通常包含多层数据处理神经元,故此类模型的容量要比浅层学习模型大得多。但随着网络层数加深,深度网络模型易出现网络性能的退化、容易陷入局部最优等问题。 
  人们提出了多种对深度网络模型参数进行初始化的方案。其中最著名的是对深度网络模型进行逐层训练。由于神经网络模型前一层的输出信号即为之后一层的输入信号,故可考虑从输入数据开始逐步训练浅层学习模型,再将前一个浅层学习模型中某一层的输出作为下一个浅层学习模型的输入并对该模型进行训练,重复上述过程直至构建了多个浅层学习模,最后通过某些技巧将这些训练好的浅层模型进行堆叠便可获得一个初始参数较优的深度网络模型。上述过程即相当于对深度网络模型进行逐层训练。  
  通过自编码器进行堆叠所获得的深度网络模型称之为深度堆栈网络。与上述方法类似,也可通过对受限玻尔兹曼机进行堆叠获得参数较优的深度网络模型,通常称此类网络模型为深度置信网络。图7-41和图7-42分别表示深度堆栈网络和深度置信网络的基本结构。

 技术图片

  可将深度网络模型大致划分为两个基本类型,即深度生成模型和深度判别模型。在深度学习中,深度生成模型可用于学习数据的高层特征表示。例如深度自编码器、深度玻尔兹曼机(DBM)、深度堆栈网络(DSN)和深度置信网络(DBN)等深度网络模型均是可用于学习数据高层特征表示的深度生成模型。
3.1 深度堆栈网络(DSN)
技术图片
 
深度堆栈网络与深层前馈网络的区别:
 

 技术图片

技术图片

技术图片

3.2 深度置信网络(DBN)

技术图片

技术图片  

  事实上,可将深度堆栈网络看成是深度置信网络的一种改进。对于DBN 而言,人们更倾向于利用该模型定义一个具有较优初始权重的深度前馈网络从而解决某些预测性问题,而非用于生成新样本。但RBM的训练过程较为麻烦,改用自编码器作为堆叠组件可降低模型训练难度并保证所构造的深度前馈网络也具有较优的初始权重。

  目前使用更为广泛的深度生成模型为生成对抗网络,该模型以判别模块来强迫生成模块产生与真实数据分布相近的样本,当判别模块再也无法判断一个数据是真实样本还是生成样本时,即可认为生成对抗网络的生成模块达到最佳状态,此时使用该模块所生成的样本应最接近于数据的真实分布。

  除深度生成模型之外,深度卷积网络与深度循环神经网络等深度判别式模型的研究也取得了长足的进展。深度卷积网络已在图像分类、模式识别等需要对矩阵进行处理的计算机视觉领域取得了显著的应用效果,深度循环神经网络则在机器翻译、自然语言理解等需对序列信息进行处理的领域得到广泛应用。 

 

 ps:由于方便,截图呈现,具体内容请参见原书,或查阅相关资料。

 

 

 

 

 

神经网络与深度学习——《机器学习及应用》汪荣贵 机械工业出版社

标签:深度网络   总结   mamicode   输出   深度   视觉   高斯   数加   基本知识   

原文地址:https://www.cnblogs.com/DHuifang004/p/11415326.html

(0)
(0)
   
举报
评论 一句话评论(0
登录后才能评论!
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!