【多变量线性回归模型】多变量线性回归是指输入为多维特征的情况,例如:
在上图中可看出房子的价格price由四个变量(size、number of bedrooms、number of floors 、age of home)决定,为了能够预测给定条件(四个变量)下的房子的价格(y),我们需要建立相应的线性回归模型。假设有n个变量,则相应的多变量线性回归模型如下:注意上图中的x是指一个训练样本,即每...
分类:
其他好文 时间:
2015-07-23 23:50:38
阅读次数:
337
/*
*icvSetWeightsAndClasses
*作用:给训练样本的权重和类别赋值
*/
static void icvSetWeightsAndClasses( CvHaarTrainingData* training_data,
int num1, float weight1, float cls1,
...
分类:
其他好文 时间:
2015-07-21 20:36:10
阅读次数:
80
本内容的源码在opencv开源源码的........\opencv\sources\apps\haartraining\cvhaartraining.cpp文件中,具体内容如下:
/*
*icvGetUsedValues
*作用:根据级分类器来计算训练样本的特征值
*/
static CvMat* icvGetUsedValues( CvHaarTrainingData* trai...
分类:
其他好文 时间:
2015-07-20 19:45:59
阅读次数:
241
/*
*icvPrecalculate
*作用:计算特征值,并排序
*具体来说也就是根据训练样本信息和haar特征信息,在函数内部引用icvGetTrainingDataCallback来
*分批计算正负样本的前numprecalated个haar特征值,并把计算好的特征值进行排序,最后结果存储在data->valcache之中
*/
static
void icvPrecalculat...
分类:
其他好文 时间:
2015-07-14 15:43:28
阅读次数:
162
分类的目的是将研究区域内的每个像元分配给一个已知类(监督分类)或一个聚类(非监督分类)。在这两种情况下,分类的输入是一个包含每个类或聚类的多元统计信息的特征文件。每次分类的结果都是将地图中的研究区域划分为若干类,其中一些已知类与训练样本对应,而另一些自然产生的类则与通过聚类定义的聚类对应。将位置划分为若干个与聚类对应的自然产生的类的过程也被称为层化。...
分类:
其他好文 时间:
2015-07-13 18:39:13
阅读次数:
117
前言 在机器学习经典算法中,决策树算法的重要性想必大家都是知道的。不管是ID3算法还是比如C4.5算法等等,都面临一个问题,就是通过直接生成的完全决策树对于训练样本来说是“过度拟合”的,说白了是太精确了。由于完全决策树对训练样本的特征描述得“过于精确” ,无法实现对新样本的合理分析, 所以此时它不....
分类:
编程语言 时间:
2015-07-11 16:20:16
阅读次数:
220
其源码在opencv的cvboost.cpp文件之中,具体内容和部分注释如下所示:
/*
*cvTrimWeights
*作用:对小于一定阈值的权重剔除,因为权重较小的样本对训练结果影响很小,剔除后,这样在训练样本时可以缩短训练时间
*/
CV_BOOST_IMPL
CvMat* cvTrimWeights( CvMat* weights,//训练样本的权重矩阵
...
分类:
其他好文 时间:
2015-07-10 16:42:21
阅读次数:
149
基本想法:既不想像参数估计(最大似然,贝叶斯学习)那样需要假定特定的分布函数形式,又不想像非参数估计那样在最终生成的模型中带着所有的训练样本。 注意理解这个式子:p(j)是样本概率由第j个组分得到的概率,式(1)中也就是对联合分布求和得到了边缘分布。P(j)的取值需要满足概率函数的约束: 同理,条....
分类:
其他好文 时间:
2015-07-08 12:30:32
阅读次数:
197
cvBoostNextWeakClassifier
*这个函数的作用是为了训练下一个弱分类器,进行下一个迭代训练,计算响应值和权重
*
* 参数含义:
* weakEvalVals
* 用上一个迭代训练的弱分类器(第i次迭代)来计算每一个样本的响应值的向量, 必须是 CV_32FC1 的类型
* trainClasses
* 训练样本类的向量 0 or 1,类型必须为 CV_32FC1.
* weakTrainVals
* 下一个弱分类器(第i+1次迭...
分类:
其他好文 时间:
2015-07-06 17:58:12
阅读次数:
160
本文主要讲解基本最小二乘法和带有约束条件的最小二乘法。
一 基本最小二乘法
最小二乘法是回归中最为基础的算法。它是对模型的输出和训练样本输出的平方误差(这里还乘以了1/2只是为了求导简化)为最小时的参数 进行学习。
特别地,对于线性模型有:
求导可得:
其中设计矩阵:
%基本最小二乘法
clear all;
close all;
n = 50;
N ...
分类:
其他好文 时间:
2015-07-04 23:34:03
阅读次数:
157