网页可以唤起QQ群,这我们都知道可以做到,那如何唤起呢?下面就做一个简单的介绍,希望可以帮助到有需要的朋友 1、官方提供的几种加群的链接 官方的加群代码的获取前提是我们具有权限(也就是群主或管理权限) 2、首先我们需要通过此链接:https://qun.qq.com/join.html 去QQ群官网 ...
分类:
其他好文 时间:
2019-01-26 15:31:19
阅读次数:
818
原帖地址:http://blog.codinglabs.org/articles/pca-tutorial.html PCA(Principal Component Analysis)是一种常用的数据分析方法。PCA通过线性变换将原始数据变换为一组各维度线性无关的表示,可用于提取数据的主要特征分量, ...
分类:
其他好文 时间:
2019-01-26 11:17:28
阅读次数:
160
官方网站链接 KNN Home Installation Documentation Scikit-learn // <![CDATA[ document.write(DOCUMENTATION_OPTIONS.VERSION + (VERSION_SUBDIR ? " (" + VERSION_S ...
分类:
其他好文 时间:
2019-01-25 15:13:29
阅读次数:
145
用途:分类预处理中的降维,做分类任务 目的:LDA关心的是能够最大化类间区分度的坐标轴 将特征空间(数据中的多维样本,将投影到一个维度更小的K维空间,保持区别类型的信息) 监督性:LDA是“有监督”的,它计算的是另一个类特定的方向 投影:找到更适用的分类空间 与PCA不同: 更关心分类而不是方差(P ...
分类:
其他好文 时间:
2019-01-22 00:34:44
阅读次数:
238
构建模型的个基本过程: PCA 与 SVD关系 PCA : 降维度。过程:首先计算样本本协方差矩阵,然后·暴力特征分解·(非常消耗资源)。 SVD : 降维度,它的标准推导过程类似特征分解(耗资源),据说,sk-learn中它有其他实现过程。 scikit-learn的PCA算法的背后真正的实现就是 ...
分类:
其他好文 时间:
2019-01-21 16:08:54
阅读次数:
183
奇异值分解(SVD)原理与在降维中的应用 https://www.cnblogs.com/pinard/p/6251584.html 最通俗易懂的PCA主成分分析推导 https://blog.csdn.net/u012526436/article/details/80868294,https:// ...
分类:
其他好文 时间:
2019-01-21 16:01:29
阅读次数:
208
"1. K近邻算法(KNN)" "2. KNN和KdTree算法实现" 1. 前言 KNN一直是一个机器学习入门需要接触的第一个算法,它有着简单,易懂,可操作性强的一些特点。今天我久带领大家先看看sklearn中KNN的使用,在带领大家实现出自己的KNN算法。 2. KNN在sklearn中的使用 ...
分类:
编程语言 时间:
2019-01-20 14:03:03
阅读次数:
296
在数据挖掘过程中,当一个对象有多个属性(即该对象的测量过程产生多个变量)时,会产生高维度数据,这给数据挖掘工作带来了难度,我们希望用较少的变量来描述数据的绝大多数信息,此时一个比较好的方法是先对数据进行降维处理。数据降维过程不是简单提取部分变量进行分析,这样的方式法当然会降低数据维度,但是这是非常不 ...
分类:
其他好文 时间:
2019-01-19 20:02:34
阅读次数:
300
作为一名非统计学科班出身的同学,之前只学习过浙大《概率论与数理统计》一书,当时只在意那些公式、理论,应付考试,甚至不知道书中讲述了两门学科的知识:数理统计学、概率论,更不明白二者之间有何关系,直到最近拜读了陈希孺先生的《数理统计学教程》,这才开始有一些理解,于是打算先将自己的一些理解记录下来,待日后 ...
分类:
其他好文 时间:
2019-01-19 19:56:51
阅读次数:
258
在数据挖掘过程中,当一个对象有多个属性(即该对象的测量过程产生多个变量)时,会产生高维度数据,这给数据挖掘工作带来了难度,我们希望用较少的变量来描述数据的绝大多数信息,此时一个比较好的方法是先对数据进行降维处理。数据降维过程不是简单提取部分变量进行分析,这样的方式法当然会降低数据维度,但是这是非常不 ...
分类:
其他好文 时间:
2019-01-19 16:27:32
阅读次数:
231