Ridge Regression岭回归 数值计算方法的“稳定性”是指在计算过程中舍入误差是可以控制的。 对于有些矩阵,矩阵中某个元素的一个很小的变动,会引起最后计算结果误差很大,这种矩阵称为“病态矩阵”。有些时候不正确的计算方法也会使一个正常的矩阵在运算中表现出病态。对于高斯消去法来说,如果主元(即 ...
分类:
其他好文 时间:
2016-08-18 14:27:00
阅读次数:
172
** 【1】Held, D., Thrun, S., & Savarese, S. (2016). Learning to Track at 100 FPS with Deep Regression Networks. arXiv preprint arXiv:1604.01802.这篇文章提出了一种基于深度学习的目标跟踪算法,有以下几个特点:
1)快,100fps,比之前大多数采用深度学习的跟踪...
分类:
其他好文 时间:
2016-08-16 16:21:18
阅读次数:
176
Ridge Regression岭回归 数值计算方法的“稳定性”是指在计算过程中舍入误差是可以控制的。 对于有些矩阵,矩阵中某个元素的一个很小的变动,会引起最后计算结果误差很大,这种矩阵称为“病态矩阵”。有些时候不正确的计算方法也会使一个正常的矩阵在运算中表现出病态。对于高斯消去法来说,如果主元(即... ...
分类:
其他好文 时间:
2016-08-14 16:03:28
阅读次数:
143
机器学习算法与Python实践这个系列主要是参考《机器学习实战》这本书。因为自己想学习Python,然后也想对一些机器学习算法加深下了解,所以就想通过Python来实现几个比较常用的机器学习算法。恰好遇见这本同样定位的书籍,所以就参考这本书的过程来学习了。 这节学习的是逻辑回归(Logistic R ...
分类:
编程语言 时间:
2016-08-14 15:58:21
阅读次数:
237
分类问题和线性回归问题问题很像,只是在分类问题中,我们预测的y值包含在一个小的离散数据集里。首先,认识一下二元分类(binary classification),在二元分类中,y的取值只能是0和1.例如,我们要做一个垃圾邮件分类器,则为邮件的特征,而对于y,当它1则为垃圾邮件,取0表示邮件为正常邮件 ...
分类:
其他好文 时间:
2016-08-13 18:20:55
阅读次数:
267
首先我们来看一个线性回归的问题,在下面的例子中,我们选取不同维度的特征来对我们的数据进行拟合。 对于上面三个图像做如下解释: 选取一个特征,来拟合数据,可以看出来拟合情况并不是很好,有些数据误差还是比较大 针对第一个,我们增加了额外的特征,,这时我们可以看出情况就好了很多。 这个时候可能有疑问,是不 ...
分类:
其他好文 时间:
2016-08-13 07:42:23
阅读次数:
120
所以,这里我们通过一种两个步骤的训练方式把SVM方法和Logistic Regression结合起来,第一步我们还是通过SVM求解得到Wsvm和bsvm,然后我们把得到的w和b,用上面的方法进行Logistic Regression的训练, 通过A和B这两个参数进行放缩和平移,最终得到的结果如果A> ...
分类:
其他好文 时间:
2016-08-12 14:53:37
阅读次数:
287
Ordinary Least Squares 普通最小二乘法 当达到最小值的时候,就达到最佳拟合直线 求关于系数w 最小二次方程的最小值,可以利用求对w偏导数 同上面等价的另外一种形式的表示: 也可以简化成 推导过程: Ridge Regression 岭回归 Ridge Regression 岭回 ...
分类:
其他好文 时间:
2016-08-05 07:44:12
阅读次数:
133
参看博文http://www.tuicool.com/articles/2qYjuy 逻辑回归的输出范围是[0,1],根据概率值来判断因变量属于0还是属于1 实现过程分三步: indicated function指示函数 ...
分类:
其他好文 时间:
2016-07-31 17:36:01
阅读次数:
127
I was going through the Coursera "Machine Learning" course, and in the section on multivariate linear regression something caught my eye. Andrew Ng pr ...
分类:
其他好文 时间:
2016-07-29 18:38:12
阅读次数:
200