码迷,mamicode.com
首页 >  
搜索关键字:梯度    ( 2016个结果
机器学习——局部加权回归,逻辑回归
局部加权回归( locally weighted regression ) 特征选择问题:underfitting,overfitting parametric learing algorithm:有固定数目的参数以用来数据拟合的算法; Non parametric learing algorith ...
分类:其他好文   时间:2020-01-29 18:23:37    阅读次数:97
单输出感知机及其梯度
单层的感知机结构可写成以下公式: y=XW+b(y = Σxi*wi+b) 这里单层感知机的激活函数改成使用现代化的sigmoid激活函数 # 定义网络结构 x=tf.random.normal([1,3]) w=tf.ones([3,1]) b=tf.ones([1]) y = tf.consta ...
分类:其他好文   时间:2020-01-29 01:04:28    阅读次数:100
Relu激活函数的优点
Relu优点: 1、可以使网络训练更快。 相比于sigmoid、tanh,导数更加好求,反向传播就是不断的更新参数的过程,因为其导数不复杂形式简单。 2、增加网络的非线性。 本身为非线性函数,加入到神经网络中可以是网格拟合非线性映射。 3、防止梯度消失。 当数值过大或者过小,sigmoid,tanh ...
分类:其他好文   时间:2020-01-28 21:01:30    阅读次数:295
梯度下降优化方法 与 自动控制 的关系
梯度下降的各种优化算法下面参考文献表述都很全面了,不在赘述,主要谈谈个人理解 其实对SGD的优化,跟自动控制中的PID思路其实是一样的 P(Propotion)比例项即当前偏差 I(Intergration)积分项即偏差的累积 D(differentiation)微分项即偏差的变化 SGD加入微分项 ...
分类:其他好文   时间:2020-01-27 19:11:38    阅读次数:91
BP算法完整推导 2.0 (下)
BP 4 大核心公式推导, 即损失函数对 输出层, 中间层, 偏置, 权值 的梯度(误差) ...
分类:编程语言   时间:2020-01-26 20:47:42    阅读次数:136
2.感知机
1. 感知机模型 输入为实例的特征向量, 输出为实例的类别, 取+1和-1;感知机对应于输入空间中将实例划分为正负两类的分离超平面, 属于判别模型;导入基于误分类的损失函数;利用梯度下降法对损失函数进行极小化;感知机学习算法具有简单而易于实现的优点, 分为原始形式和对偶形式;1957年由Rosenb ...
分类:其他好文   时间:2020-01-26 11:40:01    阅读次数:130
BP算法完整推导 2.0 (上)
BP再次推导, 重点理解BP过程及变量定义, 尤其是将误差, 定义为 梯度, 这脑洞太大了. ...
分类:编程语言   时间:2020-01-25 23:39:38    阅读次数:143
遗传编程GP-拟合方程
一般都是用机器学习、梯度下降或sklearn、pytorch来做函数拟合运算,今天介绍遗传编程,或称基因编程/GP,来做这个计算 最终就是构造一棵树AST,来表示运算的先后、权重: 具体原理可以参考这篇文章:https://blog.csdn.net/ocd_with_naming/article/ ...
分类:其他好文   时间:2020-01-25 23:34:32    阅读次数:89
手写数字识别——利用keras高层API快速搭建并优化网络模型
在《手写数字识别——手动搭建全连接层》一文中,我们通过机器学习的基本公式构建出了一个网络模型,其实现过程毫无疑问是过于复杂了——不得不考虑诸如数据类型匹配、梯度计算、准确度的统计等问题,但是这样的实践对机器学习的理解是大有裨益的。在大多数情况下,我们还是希望能多简单就多简单地去搭建网络模型,这同时也 ...
分类:Windows程序   时间:2020-01-24 23:49:27    阅读次数:197
如何预测股票分析--长短期记忆网络(LSTM)
在上一篇中,我们回顾了先知的方法,但是在这个案例中表现也不是特别突出,今天介绍的是著名的l s t m算法,在时间序列中解决了传统r n n算法梯度消失问题的的它这一次还会有令人杰出的表现吗? 长短期记忆(Long Short-Term Memory) 是具有长期记忆能力的一种时间递归神经网络(Re ...
分类:其他好文   时间:2020-01-24 22:31:49    阅读次数:287
2016条   上一页 1 ... 25 26 27 28 29 ... 202 下一页
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!