链接 [http://poj.org/problem?id=1050] 题意 给你一个矩阵,让你求子矩阵中的元素之和最大 分析 其实跟最大和子序列一样只不过维数增加了,你只需要降维就好了 代码 include include using namespace std; define ll long l ...
分类:
其他好文 时间:
2018-10-05 16:07:35
阅读次数:
166
1*1卷积的主要作用有以下几点: 1、降维( dimension reductionality )。比如,一张500 * 500且厚度depth为100 的图片在20个filter上做1*1的卷积,那么结果的大小为500*500*20。 2、加入非线性。卷积层之后经过激励层,1*1的卷积在前一层的学 ...
分类:
其他好文 时间:
2018-10-04 17:49:41
阅读次数:
231
单调队列定义: 其实单调队列就是一种队列内的元素有单调性的队列,因为其单调性所以经常会被用来维护区间最值或者降低DP的维数已达到降维来减少空间及时间的目的。 单调队列的一般应用: 1.维护区间最值 2.优化DP 例题引入: https://www.luogu.org/problemnew/show/ ...
分类:
其他好文 时间:
2018-10-04 13:46:29
阅读次数:
189
PCA(Principal Component Analysis)是一种常用的数据分析方法。PCA通过线性变换将原始数据变换为一组各维度线性无关的表示,可用于提取数据的主要特征分量,常用于高维数据的降维。网上关于PCA的文章有很多,但是大多数只描述了PCA的分析过程,而没有讲述其中的原理。这篇文章的 ...
分类:
其他好文 时间:
2018-10-04 09:00:38
阅读次数:
125
LDA算法的主要优点有: 在降维过程中可以使用类别的先验知识经验,而像PCA这样的无监督学习则无法使用类别先验知识。 LDA在样本分类信息依赖均值而不是方差的时候,比PCA之类的算法较优。 LDA算法的主要缺点有: LDA不适合对非高斯分布样本进行降维,PCA也有这个问题。 LDA降维最多降到类别数 ...
分类:
其他好文 时间:
2018-10-02 17:50:31
阅读次数:
306
机器学习的定义: 让机器代替人,实现人的工作。 现有的机器学习分类: (1)监督学习 > 分类问题 (2)半监督学习 > 聚类问题 (3)非监督学习 > 聚类问题 (4)强化学习 > 降维 归纳: 主要可分为:分类、回归/预测、聚类和维度下降。 机器学习“六步走”: a.收集数据; b.准备数据 c ...
分类:
其他好文 时间:
2018-09-25 17:26:11
阅读次数:
175
PCA主成分分析算法,是一种线性降维,将高维坐标系映射到低维坐标系中。 如何选择低维坐标系呢? 通过协方差矩阵的特征值和特征向量,特征向量代表坐标系,特征值代表映射到新坐标的长度。 算法步骤: 输入:样本集D={x1,x2,...,xm}; 低维空间维数k 第一步:将样本集中心化。每一列的特征值减去 ...
分类:
编程语言 时间:
2018-09-21 18:27:36
阅读次数:
224
A cellular automaton is a collection of cells on a grid of specified shape that evolves through a number of discrete time steps according to a set of ...
分类:
其他好文 时间:
2018-09-18 17:16:10
阅读次数:
234
1*1的卷积核在NIN、Googlenet中被广泛使用,但其到底有什么作用也是一直困扰的问题,这里总结和归纳下在网上查到的自认为很合理的一些答案,包括1)跨通道的特征整合2)特征通道的升维和降维 3)减少卷积核参数(简化模型) 1 - 引入 在我学习吴恩达老师Deeplearning.ai深度学习课 ...
分类:
其他好文 时间:
2018-09-18 00:28:07
阅读次数:
193
1. PCA优缺点 利用PCA达到降维目的,避免高维灾难。 PCA把所有样本当作一个整体处理,忽略了类别属性,所以其丢掉的某些属性可能正好包含了重要的分类信息 2. PCA原理 条件1:给定一个m*n的数据矩阵D, 其协方差矩阵为S. 如果D经过预处理, 使得每个每个属性的均值均为0, 则有S=DT ...
分类:
编程语言 时间:
2018-09-12 13:54:53
阅读次数:
605