The linear regression model discussed in Chapter 3 assumes that the response variable Y is quantitative. But in many situations, the response variable ...
分类:
其他好文 时间:
2017-04-03 18:55:20
阅读次数:
311
The issus in Age Progression/Regression by Conditional Adversarial Autoencoder (CAAE) Today I tried a new project named: Face-Aging-CAAE Paper Name: A ...
分类:
Web程序 时间:
2017-03-30 16:02:13
阅读次数:
1474
介绍机器学习的回归模型,举例介绍了操作步骤,损失函数的求解,结果的分析。
分类:
其他好文 时间:
2017-03-27 11:47:29
阅读次数:
199
简述: 1. LR 本质上是对正例负例的对数几率做线性回归,因为对数几率叫做logit,做的操作是线性回归,所以该模型叫做Logistic Regression。 2. LR 的输出可以看做是一种可能性,输出越大则为正例的可能性越大,但是这个概率不是正例的概率,是正例负例的对数几率。 3. LR的l ...
分类:
其他好文 时间:
2017-03-25 13:10:48
阅读次数:
340
regression与线性回归(linear regression) 线性回归(linear regression): 有监督学习 => 学习样本为D={(xi,yi)}ª 输出/预测的结果yi为连续值变量 需要学习映射f:x~y 假定输入x和输出y之间有线性相关关系 损失函数(loss funct ...
分类:
其他好文 时间:
2017-03-22 20:59:56
阅读次数:
196
什么是机器学习?一个程序对于任务T,输入经验E,通过性能评测方法P衡量该程序在T的性能得到改进。监督学习Regression(举例:房屋价格与房屋面积的关系)Classification(举例 :根据年龄和肿瘤大小判断乳腺肿瘤是良性/恶性)非监督学习clustering(举例:鸡尾酒会问题)强化学习... ...
分类:
其他好文 时间:
2017-03-22 00:09:00
阅读次数:
139
一、正则化应用于基于梯度下降的线性回归 上一篇文章我们说过,通过正则化的思想,我们将代价函数附加了一个惩罚项,变成如下的公式: 那么我们将这一公式套用到线性回归的代价函数中去。我们说过,一般而言θ0我们不做处理,所以我们把梯度下降计算代价函数最优解的过程转化为如下两个公式。 我们通过j>0的式子,能... ...
分类:
其他好文 时间:
2017-03-17 00:12:37
阅读次数:
214
灵感 因为最近一直在做rnn based NLP,其中无论是什么cell,lstm, GRU或者cnn都是基于单词的embedding表示;单词的embdding就是把每个单词表示成一个向量, 然后通过bp训练这些向量的值,这种想法很奇妙,于是我尝试性的把这种思想用在logistic regress ...
分类:
其他好文 时间:
2017-03-16 18:36:09
阅读次数:
264
本次回归章节的思维导图版总结已经总结完毕,但自我感觉不甚理想。不知道是模型太简单还是由于自己本身的原因,总结出来的东西感觉很少,好像知识点都覆盖上了,但乍一看,好像又什么都没有。不管怎样,算是一次尝试吧,慢慢地再来改进。在这里再梳理一下吧! 线性回归(Linear Regression) 给定一些数 ...
分类:
其他好文 时间:
2017-03-12 15:29:11
阅读次数:
329
1、概念 一元线性回归是最简单的一种模型,但应用广泛,比如简单地预测商品价格、成本评估等,都可以用一元线性模型,本节主要讲解scikit-learn一元线性回归的使用以及作图说明。 y=f(x)叫做一元函数,回归的意思就是根据已知数据复原某些值,线性回归(regression)就是用线性的模型做回归 ...
分类:
其他好文 时间:
2017-03-11 23:35:33
阅读次数:
253