码迷,mamicode.com
首页 > 其他好文 > 详细

tensorflow学习之路-----卷积神经网络个人总结

时间:2018-08-08 21:27:25      阅读:191      评论:0      收藏:0      [点我收藏+]

标签:长度   要求   sha   左右移动   dict   一个   位移   变化   其他   

卷积神经网络大总结(个人理解)

 

神经网络

1、概念:从功能他们模仿真实数据

2、结构:输入层、隐藏层、输出层。其中隐藏层要有的参数:权重、偏置、激励函数、过拟合

3、功能:能通过模仿,从而学到事件

其中过拟合:电脑太过于自信,想把所有的数据都模拟下来。但是这并不符合我们的实际的需求

激励函数:激活某一些参数

 

卷积神经网络:

1、一般的结构:输入数据、卷积层、池化层、卷积层、池化层、全连接层、全连接层、误差分析、参数优化、显示精确度

2、每一个层的要求:

                 输入数据:类型:[-1(表示能接受任意张图片),图片的长度,图片的宽度、图片的灰度级]

                 卷积层  :fittler滤波器:意义:扫描图片,得到一个数值。类型:[卷积核的长度,卷积核的宽度,图片的灰度值,特征映射值(厚度)]其中的1,1是给定。卷积函数:输入数据、滤波器、步长(类型[1,图片左右移动的步数,图片上下移动的步数,1],padding=”扫描的方式”

                 卷积得到的数据,可以用tf.nn.Rule的激励函数激励

                 池化层:池化函数的参数:卷积层1激励后的数据,池化窗口的大小(shape[1,长,宽,1],步长(shape[1,向左右移动的步数,上下移动的步数,1],padding=“扫描的方式”

                 卷积层2:参数个数一样,但是输入的数据是池化1输出的数据,卷积核我们也可以定义,其他的都一样

                 池化层:变化最大的是输入的数据数卷积层2输出的数据

                 全连接神经元:输入的数据是池化2输出的数据,要记得重新设定类型。隐藏层:权重,偏置。。。隐藏层输出的数据可以过拟合和tf.nn.relu激励函数

                 全连接神经元2:类似全连接神经元。但是这一层的输出数据要用到tf.nn.softmax激励函数

                  误差分析、优化:cross_entropy = tf.reduce_mean(-tf.reduce_sum(y_data * tf.log(prediction),

                                              reduction_indices=[1]))

train_step = tf.train.AdamOptimizer(1e-4).minimize(cross_entropy)交叉商

                   计算精确值函数

 

其他:

1、其中每一层的卷积层和池化层都是讲特征映射的更加详细,具体有用

2、池化层在实际应用中用来抵抗输入的轻微形变或者位移

3、全连通层的工作原理是根据之前其它层的输出,检测哪些特征与特定的 类别相匹

tensorflow学习之路-----卷积神经网络个人总结

标签:长度   要求   sha   左右移动   dict   一个   位移   变化   其他   

原文地址:https://www.cnblogs.com/MyUniverse/p/9445397.html

(0)
(0)
   
举报
评论 一句话评论(0
登录后才能评论!
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!