码迷,mamicode.com
首页 >  
搜索关键字:降维    ( 692个结果
机器学习技法(10)--Random Forest
随机森林是将bagging和decision tree结合在一起的算法。 random forest同样也继承了两个算法的优点,但是同时也解决了过拟合的缺点。 通过降维的方式来提高运算的速度。 每一个低维度的空间都可以看成是原feature的一个线性组合,由高维度向低维度的转换的过程是随机的,这样又 ...
分类:其他好文   时间:2016-10-08 16:11:36    阅读次数:215
斯坦福大学Andrew Ng - 机器学习笔记(6) -- 聚类 & 降维
大概用了一个月,Andrew Ng老师的机器学习视频断断续续看完了,以下是个人学习笔记,入门级别,权当总结。笔记难免有遗漏和误解,欢迎讨论。 鸣谢:中国海洋大学黄海广博士提供课程视频和个人笔记,在此深表感谢! ...
分类:其他好文   时间:2016-10-07 13:48:11    阅读次数:139
利用R语言+逻辑回归实现自动化运营
逻辑回归是最常见的二分类算法之一,由于是有监督学习,训练阶段需要输入标签,而同时在变量较多的情况下,需要先经过一些降维处理,本文主要讲解如果通过R语言来自动化实现变量的降维以及变量转换,训练,测试,覆盖率以及准确度效果评估,以及生成最终评分配置表,而在标签与训练数据在可以自动化生成的情况下,配置表是... ...
分类:编程语言   时间:2016-10-06 13:04:19    阅读次数:833
PCA理论与实践
PCA作用: 降维,PCA试图在力保数据信息丢失最少的原则下,用较少的综合变量代替原本较多的变量,而且综合变量间互不相关,减少冗余以及尽量消除噪声. PCA数学原理: 设 是维向量 想经过线性变换得到其中F的各行向量相互独立,即 由于是实对称矩阵,因此存在正交矩阵A满足以上关系,令,即得,得 只根据 ...
分类:其他好文   时间:2016-09-25 13:10:20    阅读次数:253
常见机器学习算法原理+实践系列3(PCA)
PCA主成份分析 PCA(Principal Component Analysis)主要是为了做数据降维,数据从原来的坐标系转换到登录新的坐标系,新坐标系的选择是由数据本身决定的,第一个新坐标轴选择的是原始数据中方差最大的方向,第二个新坐标轴的选择和第一个坐标轴正交且具有最大方差,该过程一直重复,重 ...
分类:编程语言   时间:2016-09-21 21:21:22    阅读次数:169
NEUOJ 1702 撩妹全靠魅力值 (三维偏序)
题目链接:http://acm.neu.edu.cn/hustoj/problem.php?id=1702 题目大意:就是问每个人三个属性同时不低于另外几个人。。。。人不分先后 经典的三维偏序问题 解题思路:CDQ分治练手题 CDQ分治就是将前半截对后半截的影响拿出来,把偏序问题降维。 三维的经过一 ...
分类:其他好文   时间:2016-09-05 21:04:31    阅读次数:413
PCA 降维算法详解 以及代码示例
转载地址:http://blog.csdn.net/watkinsong/article/details/38536463 1. 前言 PCA : principal component analysis ( 主成分分析) 最近发现我的一篇关于PCA算法总结以及个人理解的博客的访问量比较高, 刚好目 ...
分类:编程语言   时间:2016-08-31 10:34:24    阅读次数:586
hdu 1249 三角形
题意:用N个三角形最多可以把平面分成几个区域? idea:模拟简单数据,用已知数据加待定系数法确认,从高维降维即可。 代码: #include <bits/stdc++.h> using namespace std; int main() { int t; cin>>t; while(t--) { ...
分类:其他好文   时间:2016-08-26 18:04:44    阅读次数:210
[机器学习之13]降维技术——主成分分析PCA
始终贯彻数据分析的一个大问题就是对数据和结果的展示,我们都知道在低维度下数据处理比较方便,因而数据进行简化成为了一个重要的技术。对数据进行简化的原因: 1.使得数据集更易用使用。2、降低很多算法的计算开销。3、去除噪音、4.使得结果易懂 这里我们关心的数据降维技术为主成分分析(PCA)。在PCA中, ...
分类:其他好文   时间:2016-08-22 21:40:06    阅读次数:218
深度学习UFLDL教程翻译之PCA白化
一、引入        主成分分析(PCA)是一种降维算法,能大大加速你的无监督特征学习算法。更重要的是,理解PCA能让我们后面实现白化,这是一个对所有算法适用的重要的预处理步骤。        假设你在图像上训练你的算法。不过输入稍微有点冗余,因为图像中相邻的像素值是高度相关的。具体来说,假设我们在16*16的灰度图像块上训练。那么x∈R256是256维的向量,一个特征xj对应着图像中每个像...
分类:其他好文   时间:2016-08-14 10:23:40    阅读次数:365
692条   上一页 1 ... 47 48 49 50 51 ... 70 下一页
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!