回归与梯度下降: 回归在数学上来说是给定一个点集,能够用一条曲线去拟合之,如果这个曲线是一条直线,那就被称为线性回归,如果曲线是一条二次曲线,就被称为二次回归,回归还有很多的变种,如locally weighted回归,logistic回归,等等,这个将在后面去讲。 用一个很简单的例子来说明回归,这 ...
分类:
其他好文 时间:
2017-04-09 12:24:18
阅读次数:
172
Softmax回归:K分类问题, 2分类的logistic回归的推广。其概率表示为: 对于一般训练集: 系统参数为: Softmax回归与Logistic回归的关系 当Softmax回归用于2分类问题,那么可以得到: 令θ=θ0-θ1,就得到了logistic回归。所以... ...
分类:
其他好文 时间:
2017-04-05 23:57:07
阅读次数:
362
The linear regression model discussed in Chapter 3 assumes that the response variable Y is quantitative. But in many situations, the response variable ...
分类:
其他好文 时间:
2017-04-03 18:55:20
阅读次数:
311
注:代价函数(有的地方也叫损失函数,Loss Function)在机器学习中的每一种算法中都很重要,因为训练模型的过程就是优化代价函数的过程,代价函数对每个参数的偏导数就是梯度下降中提到的梯度,防止过拟合时添加的正则化项也是加在代价函数后面的。在学习相关算法的过程中,对代价函数的理解也在不断的加深, ...
分类:
其他好文 时间:
2017-04-01 20:23:03
阅读次数:
396
The issus in Age Progression/Regression by Conditional Adversarial Autoencoder (CAAE) Today I tried a new project named: Face-Aging-CAAE Paper Name: A ...
分类:
Web程序 时间:
2017-03-30 16:02:13
阅读次数:
1474
介绍机器学习的回归模型,举例介绍了操作步骤,损失函数的求解,结果的分析。
分类:
其他好文 时间:
2017-03-27 11:47:29
阅读次数:
199
简述: 1. LR 本质上是对正例负例的对数几率做线性回归,因为对数几率叫做logit,做的操作是线性回归,所以该模型叫做Logistic Regression。 2. LR 的输出可以看做是一种可能性,输出越大则为正例的可能性越大,但是这个概率不是正例的概率,是正例负例的对数几率。 3. LR的l ...
分类:
其他好文 时间:
2017-03-25 13:10:48
阅读次数:
340
regression与线性回归(linear regression) 线性回归(linear regression): 有监督学习 => 学习样本为D={(xi,yi)}ª 输出/预测的结果yi为连续值变量 需要学习映射f:x~y 假定输入x和输出y之间有线性相关关系 损失函数(loss funct ...
分类:
其他好文 时间:
2017-03-22 20:59:56
阅读次数:
196
本讲大纲: 1.牛顿方法(Newton’s method) 2.指数族(Exponential family) 3.广义线性模型(Generalized linear models) 本讲大纲: 1.牛顿方法(Newton’s method) 2.指数族(Exponential family) 3. ...
分类:
其他好文 时间:
2017-03-22 01:00:08
阅读次数:
317
什么是机器学习?一个程序对于任务T,输入经验E,通过性能评测方法P衡量该程序在T的性能得到改进。监督学习Regression(举例:房屋价格与房屋面积的关系)Classification(举例 :根据年龄和肿瘤大小判断乳腺肿瘤是良性/恶性)非监督学习clustering(举例:鸡尾酒会问题)强化学习... ...
分类:
其他好文 时间:
2017-03-22 00:09:00
阅读次数:
139