码迷,mamicode.com
首页 >  
搜索关键字:回归    ( 5081个结果
[深度之眼机器学习训练营第四期]神经网络之参数学习
损失函数 为了学习神经网络中的参数,我们要为神经网络模型定义损失函数。回想一下,逻辑回归可以将数据分成正例和负例两类,因此它的损失函数为: $$ J(\theta) = \frac{1}{n}\sum_{i=1}^n \left[y^{(i)}\log(h_\theta(x^{(i)}) ) + ( ...
分类:其他好文   时间:2020-02-06 23:28:35    阅读次数:87
动手学深度学习 3-3 Mlp
Multilayer perceptron 1. mlp 多层感知机在单层神经网络的基础上引入了一到多个隐藏层。多层感知机的隐藏层中的神经元和输入层中各个输入完全连接,输出层中的神经元和隐藏层中的各个神经元也完全连接。 1.1 隐藏层 若对每个全连接层做仿射变换,无论添加多少隐藏层都仍然等价于仅含输 ...
分类:其他好文   时间:2020-02-06 12:38:38    阅读次数:73
机器学习基础——推导线性回归公式
在之前的文章当中,我们介绍过了简单的朴素贝叶斯分类模型,介绍过最小二乘法,所以这期文章我们顺水推舟,来讲讲 线性回归 模型。 线性回归的本质其实是一种 统计学 当中的回归分析方法,考察的是 自变量和因变量之间的线性关联 。后来也许是建模的过程和模型训练的方式和机器学习的理念比较接近,所以近年来,这个 ...
分类:其他好文   时间:2020-02-05 10:16:34    阅读次数:71
多元线性回归的理解
之前我们讨论过一个线性回归的,里面是关于房屋售价和面积之间的关系,这个例子中特征只有一个,就是面积。 现在我们继续来讨论如果出现多个特征,通常情况下也是如此,人们在收售房屋时会考虑多个因素,比如新旧程度、地理位置、卧室数量、布局等等。这时特征数量不再是单一的,而是出现多个。 给出以下例子,考虑房屋面 ...
分类:其他好文   时间:2020-02-04 21:59:17    阅读次数:116
上线前一个小时,dubbo这个问题可把我折腾惨了
前因 那是一个月黑风高的夜晚,不管有没有圆圆的月亮,都无法解救要加班的我。这就是苦涩的人生啊! 那天正好是春节回家的日子,定了晚上的票,然后还是上线的日子。 测试在做回归测试的时候,发现一个老功能报错了,什么鬼,都没改过那块代码怎么会出问题?案件疑点重重呀。。。 为了能够早点上线,早点回家,所以这个 ...
分类:其他好文   时间:2020-02-04 13:57:54    阅读次数:282
动手学习深度学习 3-1 Linear-regression
Linear regression 1. 线性回归 线性回归模型尽量写成矩阵形式进行计算。 为什么矩阵计算比循环快很多? 【知乎】因为通常的数学库,矩阵运算都是用BLAS、ATLAS之类的库。这些库中,矩阵运算都是优化过的(也就是说通常不会用两层循环来计算矩阵乘法,具体的计算方法请参考源代码)。 当 ...
分类:其他好文   时间:2020-02-04 13:44:43    阅读次数:102
(转)App测试流程及测试点(个人整理版)
正式测试前先向主管确认项目排期。 接收版本 App测试版本送测规范 UI测试:核对rp/效果图 功能测试:核对需求文档、兼容性测试、性能压力测试, 尽快申请到正式环境下测试,后台订单统计测试、用户行为统计测试、发送上线报告、回归测试 测试资源 产品功能需求文档; 产品原型图; 产品效果图; 行为统计 ...
分类:移动开发   时间:2020-02-03 22:45:50    阅读次数:376
机器学习——神经网络
一、神经网络: 1.1非线性假设: 无论是线性回归还是逻辑回归都有这样一个缺点,即: 当特征太多时,计算的负荷会非常大 。 使用非线性的多项式项,能够帮助我们建立更好的分类模型 ,但与此同时他们的特征组合就有很多。普通的线性模型无法处理,就需要神经网络。 1.2模型表示1 每一个神经元都可以被认为是 ...
分类:其他好文   时间:2020-02-03 14:10:32    阅读次数:93
史上最全的阿米巴绩效考核方案,直接拿去就能用!
来源:https://www.jianshu.com/p/ffca00673c7f 一份完整、清晰的阿米巴绩效考核方案,是企业推行阿米巴经营的关键。阿米巴绩效考核回归阿米巴经营原点,回归绩效的真正意义——培养阿米巴经营人才与阿米巴经营循环改善。在阿米巴经营模式下,考核结果并不与个人以及团队的收益挂钩 ...
分类:其他好文   时间:2020-02-03 11:37:57    阅读次数:118
神经网络
模型架构 神经网络背后的逻辑斯蒂回归模型 公式推导 Forward $a = \begin{bmatrix} a_1 \\ a_2 \\a_3 \\\end{bmatrix} = \begin{bmatrix} g(V_1 ^T x + b_{11}) \\ g(V_2 ^T x + b_{12}) ...
分类:其他好文   时间:2020-02-03 09:29:40    阅读次数:68
5081条   上一页 1 ... 55 56 57 58 59 ... 509 下一页
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!