Reference:http://ufldl.stanford.edu/wiki/index.php/Softmax_regression起源:Logistic的二类分类 Softmax回归是Logistic回归的泛化版本,用于解决线性多类(K类)的分类问题。Logistic回归可以看作是Softm...
分类:
其他好文 时间:
2015-03-05 20:58:17
阅读次数:
151
在解决一些简单的分类问题时,线性回归与逻辑回归就足以应付,但面对更加复杂的问题时(例如对图片中车的类型进行识别),运用之前的线性模型可能就得不到理想的结果,而且由于更大的数据量,之前方法的计算量也会变得异常庞大。因此我们需要学习一个非线性系统:神经网络。
我在学习时,主要通过Andrew Ng教授提供的网络,而且文中多处都有借鉴Andrew Ng教授在mooc提供的资料。
...
分类:
其他好文 时间:
2015-03-05 14:56:33
阅读次数:
872
SVM1.概述?\Rightarrow brief introductionSVM全称Support_Vector_Machine,即支持向量机,是机器学习中的一种监督学习分类算法,一般用于二分类问题。对于线性可分的二分类问题,SVM可以直接求解,对于非线性可分问题,其也可以通过核函数将低维映射到高维空间从而转变为线性可分。对于多分类问题,SVM经过适当的转换,也能加以解决。相对于传统的分类算法如l...
分类:
其他好文 时间:
2015-03-05 00:26:34
阅读次数:
316
宅在家无聊之余决定看着《概率论和数理统计》&《统计学习方法》总结一下朴素贝叶斯和贝叶斯估计。
正好这一块我最近温习了一下,我从一开始条件概率开始写,把我所理解的贝叶斯分类算法完整呈现一下吧。
学的概率论最开始是在高中,当时是条件概率,给出条件概率的定义:事件A在另外一个事件B已经发生条件下的发生概率。条件概率表示为P(A|B),读作“在B条件下A的概率”。
其次...
分类:
其他好文 时间:
2015-02-12 09:25:16
阅读次数:
229
比赛设置:1000类图像分类问题,训练数据集126万张图像,验证集5万张,测试集10万张(标注未公布)。2012,2013,2014均采用了该数据集。评价标准采用top-5错误率,即对一张图像预测5个类别,只要有一个和人工标注类别相同就算对,否则算错。比分排行榜结果公布时间机构top-5错误率(%)...
分类:
Web程序 时间:
2015-02-11 16:18:54
阅读次数:
382
一个文本分类问题就是将一篇文档归入预先定义的几个类别中的一个或几个,而文本的自动分类则是使用计算机程序来实现这样的分类。通俗点说,就好比你拿一篇文章,问计算机这文章要说的究竟是体育,经济还是教育,计...
分类:
其他好文 时间:
2015-02-11 00:38:30
阅读次数:
357
决策树看起来挺好的那么它是如何学习出来的?这就需要我们再细细探究一番。通过观察会其实我们会发现这个树学习的关键是找出它的各个节点之间的排列次序,既然所有的叶子节点都是判断的结果,那么哪一个特征需要我们拿来作为根节点,哪一个会成为它子节点......其实决策树的精髓也在于此,只要我们知道怎么去给特征排序,那么问题基本就解决了。...
分类:
其他好文 时间:
2015-02-06 18:57:57
阅读次数:
246
以二分类问题为例({-1,+1}) adaboost步骤: 1.初始化u1=(1/N,1/N,…,1/N) 2.找到h,使最小化,记该h为g;计算作为该g的权重 3.更新ui: 4.重复2,3得到T个h,使用下列公式作为预测 理解: 1. adaboost 和 ut 数据n的权重在经过T轮更新后,正...
分类:
其他好文 时间:
2015-02-02 22:45:22
阅读次数:
222
朴素贝叶斯(Normal Bayes)适用于离散型特征的分类问题。相比于KNN的纯暴力,决策树的降维以求减少比较次数的优化,NB的优势在于,训练完成之后,分类测试的效率非常高。设样本数为n,分类数据为mKNN没有训练过程,需要分类的时候,即时确定分类。总复杂度O(mn^2)决策树虽然有训练过程,但是...
分类:
其他好文 时间:
2015-02-02 01:54:16
阅读次数:
229