逻辑回归(Logistic Regression:LR) 逻辑回归(Logistic Regression, LR)模型其实仅在线性回归的基础上,套用了一个逻辑函数,但也就是由于这个逻辑函数,使得逻辑回归模型成为了机器学习领域一颗耀眼的明星,更是计算广告学的核心。6.1 分类问题(Classific...
分类:
系统相关 时间:
2015-08-28 13:01:53
阅读次数:
1018
第6章 逻辑回归与最大熵模型逻辑回归(logistic regression)是统计学习中的经典分类方法。最大嫡是概率模型学习的一个准则将其推广到分类问题得到最大熵模型(maximum entropy model)。逻辑回归模型与最大熵模型都属于对数线性模型。6.1 逻辑回归模型定义6.1(逻辑分布...
分类:
其他好文 时间:
2015-08-26 23:55:55
阅读次数:
760
作为(曾)被认为两大最好的监督分类算法之一的adaboost元算法(另一个为前几节介绍过的SVM算法),该算法以其简单的思想解决复杂的分类问题,可谓是一种简单而强大的算法,本节主要简单介绍adaboost元算法,并以实例看看其效果如何。该算法简单在于adaboost算法不需要什么高深的思想,它的基础就是一个个弱小的元结构(弱分类器),比如就是给一个阈值,大于阈值的一类,小于阈值的一类,这样的最简单的...
分类:
编程语言 时间:
2015-08-21 19:31:38
阅读次数:
568
上节我们探讨了关于拉格朗日乘子和KKT条件,这为后面SVM求解奠定基础,本节希望通俗的细说一下原理部分。一个简单的二分类问题如下图:
我们希望找到一个决策面使得两类分开,这个决策面一般表示就是WTX+b=0W^TX+b=0,现在的问题是找到对应的W和b使得分割最好,知道logistic分类 机器学习之logistic回归与分类的可能知道,这里的问题和那里的一样,也是找权值。在那里,我们是根据每...
分类:
其他好文 时间:
2015-08-17 19:32:59
阅读次数:
315
在分类问题中我们假设:
他们都是广义线性模型中的一个例子,在理解广义线性模型之前需要先理解指数分布族。
指数分布族(The Exponential Family)
如果一个分布可以用如下公式表达,那么这个分布就属于指数分布族:
公式中y是随机变量;h(x)称为基础度量值(base measure);
...
分类:
其他好文 时间:
2015-08-17 08:50:25
阅读次数:
158
转载请注明出处:http://www.cnblogs.com/BYRans/ 前面的文章已经介绍了一个回归和一个分类的例子。在逻辑回归模型中我们假设: 在分类问题中我们假设: 他们都是广义线性模型中的一个例子,在理解广义线性模型之前需要先理解指数分布族。指数分布族(The Exponen...
分类:
其他好文 时间:
2015-08-17 06:22:23
阅读次数:
244
决策树是一种常见的机器学习算法,用于有监督分类问题,本文结合一个具体实例,通过手动一步一步建树,学习算法原理。...
分类:
其他好文 时间:
2015-08-16 23:14:48
阅读次数:
199
竞争学习是自组织网络中最常采用的一种学习策略。
一、基本概念
先说明几个重要的概念。
1. 模式、分类、聚类与相似性
在神经网络应用中,输入样本、输入模式和输入模式样本这样的术语基本上是等同的概念。在涉及识别、分类问题时,常用到输入模式的概念。模式是对某些感兴趣的客体的定量描述或结构描述,模式类是具有某些共同特征的模式的集合。分类是在类别知识等导师信号的指导下,将待识别的输入模式分配...
分类:
其他好文 时间:
2015-08-14 19:10:36
阅读次数:
5009
初体验:概率论为我们提供了一个衡量和控制不确定性的统一的框架,也就是说计算出了一大堆的概率。那么,如何根据这些计算出的概率得到较好的结果,就是决策论要做的事情。一个例子:文中举了一个例子:给定一个X射线图x,目标是如何判断这个病人是否得癌症(C1或C2).我们把它看作是一个二分类问题,根据bayes...
分类:
其他好文 时间:
2015-08-14 15:35:37
阅读次数:
243
简介Naive和BayesNaive:假定向量中的所有特征是相互独立的
Bayes:面向的问题NB主要用于解决有监督分类问题。相比于其他模型,其具备简单(不需要复杂的迭代式参数估计,由此方便处理大数据)、可解释性强(生成模型)、效果佳的特点。目标针对二分类问题,利用训练集数据学习一个判断阈值α,对于新来的数据做判定,大于α的数据属于正类,小于α的数据属于负类。有监督分类中存在两大流派 diagno...
分类:
编程语言 时间:
2015-08-12 10:18:11
阅读次数:
206