经过测试得出以下结论:1、传统的目标检测算法主要有以下几种:(1)基于Boosting框架:Haar/LBP/积分HOG/ACFfeature+Adaboost(2)基于SVM:HOG+SVMorDPM等(3)模版匹配(特殊情况下可以用到)人工特征和LBP,HAAR特征级联分类器容易出现找不到目标的情况,但是优点是响应速度快,硬件投入低,训练模型快速因为有时候找不到目标所以舍弃。2、现在采用深度学
分类:
编程语言 时间:
2018-03-14 11:20:34
阅读次数:
268
许多机器学习算法都有一个假设:输入数据要是线性可分的。感知机算法必须针对完全线性可分数据才能收敛。考虑到噪音,Adalien、逻辑斯蒂回归和SVM并不会要求数据完全线性可分。
但是现实生活中有大量的非线性数据,此时用于降维的线性转换手段比如PCA和LDA效果就不会太好。这一节我们学习PCA的核化版... ...
分类:
编程语言 时间:
2018-03-12 00:05:32
阅读次数:
366
Each of Farmer John's N cows (1 ≤ N ≤ 1,000) produces milk at a different positive rate, and FJ would like to order his cows according to these rates ...
分类:
其他好文 时间:
2018-03-10 16:10:30
阅读次数:
192
SVM 推导点到平面的距离(几何距离):函数距离: |wx+b|,不考虑1/||w||.SVM的优化目标:所有样本点到分离超平面的最小的几何距离最大,可以写成:这里 限制条件的第一行表示每个样本点都被正确的分类, 第二行表示最大化的目标是样本点到分离超平面的最小几何距离。W,b同步放缩并不影响分离超... ...
分类:
其他好文 时间:
2018-03-10 14:15:43
阅读次数:
287
Adaboost推导每一笔样本都必须有一个权重,因此子模型要支持样本可以带权重,亦即在计算误差时可以考虑要本的权重。例如SVM,LR中通过稍微损失函数使得可以考虑样本的权重:SVM(软间隔,硬间隔貌似没有损失函数)是通过在松弛项前面增加权重。相应的,推导后,alpha的上限C也要乘以权重;LR是直接... ...
分类:
其他好文 时间:
2018-03-10 13:53:20
阅读次数:
208
support vector machines,SVM是二类分类模型。定义在特征空间上间隔最大的线性分类器,由于包括核技巧实质上成为非线性分类器。学习策略是间隔最大化,可形式化为求解凸二次规划问题(convex quadratic programming)。求解算法是求解凸二次规划的最优化算法。 S ...
分类:
其他好文 时间:
2018-03-08 15:56:02
阅读次数:
513
写的让人看不懂,仅留作笔记 静态主席树,相当于前缀和套(可持久化方法构建的)值域线段树。 建树方法:记录前缀和的各位置的线段树的root。先建一个"第0棵线段树",是完整的(不需要用可持久化的方法),所有数据为0。后面每一个位置的前缀和放的线段树都先设root与前一位置的线段树一样,然后再按照原序列 ...
分类:
其他好文 时间:
2018-03-08 02:52:13
阅读次数:
188
一、equals方法介绍 1.1.通过下面的例子掌握equals的用法 1.2.画出内存分析图分析c1和c2比较的结果 程序: Cat c1 = new Cat(1,1,1); Cat c2 = new Cat(1,1,1); 执行完之后内存之中的布局如下图所示, c1指向一个对象,c2也指向一个对 ...
分类:
编程语言 时间:
2018-03-07 13:26:34
阅读次数:
185
服务器:192.168.8.176 CentOS_64 7.2.1511 (Core) 1、判断服务器是否支持虚拟化? [root@kvm ~]# grep -Ei 'vmx|svm' /proc/cpuinfo flags : fpu vme de pse tsc msr pae mce cx8 ...
分类:
其他好文 时间:
2018-03-07 00:44:48
阅读次数:
2243
1序言 要明白什么是SVM,便得从分类说起。本书开头已经提到,分类作为数据挖掘领域中一项非常重要的任务,它的目的是学会一个分类函数或分类模型(或者叫做分类器),而支持向量机本身便是一种监督式学习的方法, 它广泛的应用于统计分类以及回归分析中。 支持向量机SVM是一种比较抽象的算法概念,全称是 Sup ...
分类:
其他好文 时间:
2018-03-05 20:38:14
阅读次数:
306