logistic回归与线性回归实际上有很多相同之处,最大的区别就在于他们的因变量不同,其他的基本都差不多,正是因为如此,这两种回归可以归于同一个家族,即广义线性模型(generalized linear model)。这一家族中的模型形式基本上都差不多,不同的就是因变量不同,如果是连续的,就是多重线 ...
分类:
其他好文 时间:
2019-02-14 11:58:05
阅读次数:
355
图片来自: https://youtu.be/hSXFuypLukA ...
分类:
其他好文 时间:
2019-02-02 19:15:23
阅读次数:
242
1.为了描述SVM,需要从logistic回归开始进行学习,通过改变一些小的动作来进行支持向量机操作。在logistic回归中我们熟悉了这个假设函数以及右边的sigmoid函数 (1)如果我们有一个样本,其中y=1,这样的一个样本来自训练集或者测试集或者交叉验证集,我们希望h(x)能尽可能的接近1。 ...
分类:
其他好文 时间:
2019-01-29 18:22:36
阅读次数:
185
参考资料 台湾大学《机器学习技法》视频 李航《统计学习方法》 深入浅出ML之Regression家族 Logistic Regression Theory [TOC] 什么是Logistic回归 回顾一下,一般化的广义线性回归形式是: $$ g(Y)=Xw^T 或者?Y=g^{?1}(Xw^T) $ ...
分类:
其他好文 时间:
2019-01-26 22:41:49
阅读次数:
211
1.什么是向量化? 在logistic 回归中,你需要计算z=w^Tx+b,w是列向量 ,x也是列向量,w和x都是R内的nx维向量 在python中的一个非向量实现: for i in range(n-x): z+=w[i]*x[i] z+=b 这种形式的计算很慢,对比下向量化的实现会直接计算W^T ...
分类:
其他好文 时间:
2019-01-22 21:49:15
阅读次数:
248
1.用梯度下降算法来训练或者学习训练集上的参数w和b,如下所示,第一行是logistic回归算法,第二行是成本函数J,它被定义为1/m的损失函数之和,损失函数可以衡量你的算法的效果,每一个训练样例都输出y,把它和基本真值标签y进行比较 右边展示了完整的公式,成本函数衡量了参数w和b在训练集上的效果。 ...
分类:
其他好文 时间:
2019-01-21 22:49:14
阅读次数:
190
1.Logistic Regression是一个二元分类问题 (1)已知输入的特征向量x可能是一张图,你希望把它识别出来,这是不是猫图,你需要一个算法,可以给出预测值,更正式的y是一个概率,当输入特征x满足条件的时候y就是1。换句话说,如果x是图片,那就需要拿到一张猫图的概率。 (2)Sigmoid ...
分类:
其他好文 时间:
2019-01-21 21:42:47
阅读次数:
339
图片来自: https://youtu.be/fegAeph9UaA ...
分类:
其他好文 时间:
2019-01-19 21:22:22
阅读次数:
291
现在这本书已经看完70%,在看完后我将会将每一章的内容按照自己的理解并结合其他书籍包括<<统计机器学习导论>>[1] ,<<机器学习>>[2],<<大数据分析>>[3]这三本书总结经典的几大算法原理与代码实现。下面是预计的写作思路: 一、分类学习 1.SVM 2.决策树 3.Logistic 回归 ...
分类:
其他好文 时间:
2019-01-19 13:22:46
阅读次数:
300
目录 Pytorch Leture 05: Linear Rregression in the Pytorch Way Logistic Regression 逻辑回归 - 二分类 Lecture07: How to make netural network wide and deep ? Lect ...
分类:
其他好文 时间:
2019-01-16 14:58:55
阅读次数:
238