码迷,mamicode.com
首页 > 其他好文 > 详细

Coursera-AndrewNg(吴恩达)机器学习笔记——第四周

时间:2018-05-18 15:36:16      阅读:194      评论:0      收藏:0      [点我收藏+]

标签:过拟合   实现   size   bsp   相同   course   运算   coursera   预测   

神经网络

1.神经网络发展的动力:在逻辑回归解决复杂的分类问题时,我们使用属性的一些组合来构造新的属性(x12,x1x2,x22...),这样就会造成属性的数目n过多,带来了大量的运算,甚至造成过拟合的现象。在计算机视觉中对物体进行识别,需要将图片的像素点作为属性,因此,属性的项目n将会十分的庞大。逻辑回归解决这类问题存在不足,这给神经网络提供了发展的动力。

 

2.神经网络的基础模型:

技术分享图片

在神经网络模型中,第一层通常称为输入层,最后一层称为输出层,其它层称为隐藏层。如上图所示,在输入层中含有一个偏置x0,其值常为1.其他隐藏层对于其下一层来讲,也都存在一个常为1的偏置。我们通常用a(j)i表示第j层的,第i个神经元;用θ(j)表示第j层的参数(权重)矩阵,其维数为Sj+1*(Sj+1),其中,Sj+1表示为j+1层神经元的个数。维度的推到方式如下图所示:

技术分享图片

 

3.神经网络前向传播的向量化实现:注意除了输出层外,每一层都含有一个值为1的偏置!

技术分享图片

每一次前向传播计算都是和逻辑回归方法相同,不同点在于,与逻辑回归的输入值不同,神经网络中的输入值,是上一层的输出值!每一隐藏层根据神经元的连接情况和θ值的设定,都实现了一个特定的功能。

 

4.神经网络实现AND,NOR,OR运算,然后经过组合实现XOR运算!

技术分享图片

 

5.如何使用神经网络解决多分类问题?

技术分享图片

本部分只是强调了,在多分类问题中,最终的预测值y(i)使用一个向量来表示,而不是一个单纯的数字。

Coursera-AndrewNg(吴恩达)机器学习笔记——第四周

标签:过拟合   实现   size   bsp   相同   course   运算   coursera   预测   

原文地址:https://www.cnblogs.com/LoganGo/p/9051066.html

(0)
(0)
   
举报
评论 一句话评论(0
登录后才能评论!
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!