yuanwen 0 前言 上”最优化“课,老师讲到了无约束优化的拉格朗日乘子法和KKT条件。 这个在SVM的推导中有用到,所以查资料加深一下理解。 1 无约束优化 对于无约束优化问题中,如果一个函数f是凸函数,那么可以直接通过f(x)的梯度等于0来求得全局极小值点。 为了避免陷入局部最优,人们尽可能 ...
分类:
其他好文 时间:
2018-09-18 13:43:29
阅读次数:
302
一、简介 支持向量机(support vector machines)是一种二分类模型,它的目的是寻找一个超平面来对样本进行分割,分割的原则是间隔最大化,最终转化为一个凸二次规划问题来求解。由简至繁的模型包括: (1)当训练样本线性可分时,通过硬间隔最大化,学习一个线性可分支持向量机; (2)当训练 ...
分类:
其他好文 时间:
2018-09-16 15:57:37
阅读次数:
237
svm分析(类似于源码)fromfutureimportprint_functionfromtimeimporttimeimportlogging#绘图工具importmatplotlib.pyplotasplt#cross_validation:交叉验证,这里现在使用model_selectionfromsklearn.model_selectionimporttrain_test_splitf
分类:
其他好文 时间:
2018-09-11 18:06:53
阅读次数:
191
SVM1由来利用一根直线或者一个超平面把数据按照某种规则区分开来2最大间隔分类器上面我们推导出了间隔的表达式,自然的,我们想让数据点离超平面越远越好:3核函数在前面的讨论中,我们假设数据集是线性可分的。但是现实任务中,可能并不存在一个超平面将数据集完美得分开。这种情况下,我们可以通过将原始空间映射到一个高维空间,如果高维空间中数据集是线性可分的,那么问题就可以解决了。这样,超平面变为:可见,需要计
分类:
其他好文 时间:
2018-09-11 18:00:34
阅读次数:
200
目标检测(object detection)的基本思路: 检测(detection)+ 定位(localization) 目标检测在很多场景有用,如无人驾驶和安防系统。 传统方法 特征提取算法(如:haar特征,HOG特征)+分类器(如:svm) 深度学习方法 R-CNN (Regions with ...
分类:
其他好文 时间:
2018-09-06 22:52:21
阅读次数:
214
1.线性可分 对于一个数据集: 如果存在一个超平面X能够将D中的正负样本精确地划分到S的两侧,超平面如下: 那么数据集D就是线性可分的,否则,不可分。 w称为法向量,决定了超平面的方向;b为位移量,决定了超平面与原点的距离。 样本空间中的任意点x到超平面X的距离(不太熟悉的可以复习高数中空间几何那一 ...
分类:
编程语言 时间:
2018-09-03 10:32:55
阅读次数:
669
转自:watersink 1, Bootstrapping,hard negative mining最原始的一种方法,主要使用在传统的机器学习方法中。比如,训练cascade类型分类模型的时候,可以将每一级分类错误的样本继续添加进下一层进行训练。 比如,SVM分类中去掉那些离分界线较远的样本,只保留 ...
分类:
其他好文 时间:
2018-09-03 02:32:56
阅读次数:
518
原文:http://www.cnblogs.com/tonycody/p/3257601.html 【常规】 【调试部分、编译】 【重构】 【查找】 【VCS】 【调试部分、编译】 【重构】 【查找】 【VCS】 ...
分类:
其他好文 时间:
2018-09-02 23:45:59
阅读次数:
194
一、什么是支撑向量机SVM (Support Vector Machine) SVM(Support Vector Machine)指的是支持向量机,是常见的一种判别方法。在机器学习领域,是一个有监督的学习模型,通常用来进行模式识别、分类以及回归分析。 Vapnik等人在多年研究统计学习理论基础上对 ...
分类:
其他好文 时间:
2018-09-02 00:06:01
阅读次数:
842
回归模型构建 | 模块 | 函数 | 算法名称 | 简称 | | | | | | | linear_model | LinearRegression | 线性回归 | LR | | svm | SVR | 支持向量机回归 | SVM | | neighbors | KNeighborsRegress ...
分类:
其他好文 时间:
2018-08-31 15:43:09
阅读次数:
166