码迷,mamicode.com
首页 >  
搜索关键字:样本    ( 4292个结果
对模型方差和偏差的解释之一:过拟合
原文:http://blog.csdn.net/vivihe0/article/details/33317041在说到模型过拟合问题的时候,我们经常听说到模型的方差和偏差,本系列就通过多项式拟合为例来说明什么是模型的方差和偏差,进而说明模型复杂度与模型预测效果之间的关系。我们通过计算机产生样本数据点...
分类:其他好文   时间:2014-07-07 19:21:38    阅读次数:1764
SVM-支持向量机算法概述
原文:http://blog.csdn.net/passball/article/details/7661887 (一)SVM的背景简介支持向量机(Support Vector Machine)是Cortes和Vapnik于1995年首先提出的,它在解决小样本、非线性及高维模式识别中表现出许多特有的...
分类:其他好文   时间:2014-07-07 19:18:22    阅读次数:218
BP神经网络基本原理
2.1 BP神经网络基本原理 BP网络模型处理信息的基本原理是:输入信号Xi通过中间节点(隐层点)作用于输出节点,经过非线形变换,产生输出信号Yk,网络训练的每一个样本包含输入向量X和期望输出量t,网络输出值Y与期望输出值t之间的偏差,通过调整输入节点与隐层节点的联接强度取值Wij和隐层节点与输出节...
分类:其他好文   时间:2014-07-07 11:29:08    阅读次数:317
逻辑回归的相关问题及java实现
本讲主要说一下逻辑回归中的几个问题和具体的参数求解方法 1. 什么是逻辑回归 2. 正则化项 3. 最小二乘法和最大似然法 4. java实现梯度下降法 实验: 样本: -0.017612 14.053064 0 -1.395634 4.662541 1 -0.752157 6.538620 0 -1.322371 7.152853 0 0.423363 11.054677 0 0....
分类:编程语言   时间:2014-07-01 11:13:11    阅读次数:386
PCA 协方差矩阵特征向量的计算
人脸识别中矩阵的维数n>>样本个数m。计算矩阵A的主成分,根据PCA的原理,就是计算A的协方差矩阵A'A的特征值和特征向量,但是A'A有可能比较大,所以根据A'A的大小,可以计算AA'或者A'A的特征值,原矩阵和其转置矩阵的特征值是一样的,只是特征向量不一样。假如我们的数据按行存放,A是m*n的矩阵...
分类:其他好文   时间:2014-07-01 00:50:18    阅读次数:506
分类中数据不平衡问题的解决经验
问题:研究表明,在某些应用下,1∶35的比例就会使某些分类方法无效,甚至1∶10的比例也会使某些分类方法无效。 (1)少数类所包含的信息就会很有限,从而难以确定少数类数据的分布,即在其内部难以发现规律,进而造成少数类的识别率低 (2)数据碎片。很多分类算法采用分治法,样本空间的逐渐划分会导致数据碎片问题,这样只能在各个独立的子空间中寻找数据的规律,对于少数类来说每个子空间中包含了很少的数据信息...
分类:其他好文   时间:2014-06-29 23:01:55    阅读次数:251
iOS App与iTunes文件传输的方法和对iOS App文件结构的说明
转:http://www.xiaoyaoli.com/?p=368就像很多iOS上面的播放器App一样,本文编写一个程序可以通过iTunes往里面放文件,比如编写一个音乐播放器程序,通过itune往里面放歌曲文件,然后通过这个App来播放这首歌曲,首先我创建了一个普通的SingleView程序,叫做...
分类:移动开发   时间:2014-06-27 14:44:01    阅读次数:253
机器学习算法的R语言实现(二):决策树算法
1、介绍 ?决策树(decision tree)是一种有监督的机器学习算法,是一个分类算法。在给定训练集的条件下,生成一个自顶而下的决策树,树的根为起点,树的叶子为样本的分类,从根到叶子的路径就是一个样本进行分类的过程。 ?下图为一个决策树的例子,见http://zh.wikipedia.org/w...
分类:其他好文   时间:2014-06-25 13:13:16    阅读次数:172
poj3122
关于题目中absolute error的真正含义(指正某些在此犯有千篇一律错误的解题报告)。同样,本文如有错误之处,欢迎指出。...
分类:其他好文   时间:2014-06-24 15:51:41    阅读次数:211
Logistic Regression分类器
Logistic回归是一种非常高效的分类器。它不仅可以预测样本的类别,还可以计算出分类的概率信息。不妨设有$n$个训练样本$\{x_1, ..., x_n\}$,$x_i$是$d$维向量,其类别标签是$\{y_1, ..., y_n\}$。对于一个$c$类问题,$y_i \in \{1, 2, .....
分类:其他好文   时间:2014-06-21 16:04:13    阅读次数:177
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!