一、引入 最开始知道生成模型和判别模型,是在李航的统计学习方法里,当时的理解是:生成模型,就是同时考虑了X和Y的随机性,也就是说二者都是随机变量;判别模型,就是只考虑了Y的随机性,而X并不是个随机变量,即使X存在于条件中,但是并没有p(x)这种说法。当时同时也知道了,朴素贝叶斯和隐马尔可夫都是生成模 ...
分类:
其他好文 时间:
2020-03-27 00:47:38
阅读次数:
176
一、引入 M-H采样用来解决MCMC采样效率低的问题,主要是更改了MCMC中接受率的具体定义,但是这个方法不适用于高维。 二、细致平稳条件 从$\pi(i)Q_{ij}\alpha (ij)= \pi(j)Q_{ji}\alpha (ji)$出发(1)式 移项$\alpha (ij)=\alpha ...
分类:
其他好文 时间:
2020-03-26 00:58:14
阅读次数:
91
470. 用 Rand7() 实现 Rand10() 难度中等55收藏分享切换为英文关注反馈 已有方法 rand7 可生成 1 到 7 范围内的均匀随机整数,试写一个方法 rand10 生成 1 到 10 范围内的均匀随机整数。 不要使用系统的 Math.random() 方法。 示例 1: 输入: ...
分类:
其他好文 时间:
2020-03-24 10:33:00
阅读次数:
70
随机森林与随机子空间 BaggingClassifier类也支持对特征采样,这种采样由两个超参数控制:max_features 与 bootstrap_features,他们的工作方式与max_samples 与 bootstrap一样,只是他们采样的是特征。这样,每个模型将会在一个随机的输入特征子 ...
分类:
其他好文 时间:
2020-03-20 22:01:46
阅读次数:
107
代码地址 https://github.com/weiliu89/caffe/tree/ssd1、 IntroductionSSD取消了对边界框(bounding box)建议以及后续的像素或特征的重新采样,极大的提高了检测速度,并且准确率也可以保持一样。改进的地方:使用小型卷积过滤器来预测对象类别... ...
分类:
其他好文 时间:
2020-03-19 21:33:35
阅读次数:
63
随机森林 随机森林是集成算法的一种,是将多个决策树集成在一起通过对每棵树的结果进行表决进而组成一个强分类器的方法,可以处理分类问题及回归问题。 随机森林的构建过程: 从样本集中用采样选出N个样本; 从所有属性中随机选择M个属性,选择出最佳分割属性作为节点创建决策树; 重复执行以上两步,重复次数即为决 ...
分类:
其他好文 时间:
2020-03-15 22:04:47
阅读次数:
52
随机森林算法: 随机森林利用随机的方式将许多决策树组合成一个森林,每个决策树在分类的时候决定测试样本的最终类别 在Bagging策略的基础上进行修改后的一种算法 从样本集中用Bootstrap采样选出n个样本; 从所有属性中随机选择K个属性,选择出最佳分割属性作为节点创建决策树; 重复以上两步m次, ...
分类:
其他好文 时间:
2020-03-15 22:03:55
阅读次数:
106
Graph Regularized Nonnegative Matrix Factorization for Data Representation 从几何角度来看, 数据通常是从嵌入在高维环境空间中的低维流形采样的。然后, 人们希望找到一个紧凑的表示, 它揭示了隐藏的语义, 同时尊重了内在的几何结 ...
分类:
其他好文 时间:
2020-03-15 20:38:53
阅读次数:
66
1.随机森林: 在机器学习中,随机森林是一个包含多个决策树的分类器, 并且其输出的类别是由个别树输出的类别的众数而定。在Bagging策略的基础上进行修改后的一种算法。 2.随机森林的特点 从样本集中用Bootstrap采样选出n个样本; 从所有属性中随机选择K个属性,选择出最佳分割属性作为节点创建 ...
分类:
其他好文 时间:
2020-03-15 20:26:44
阅读次数:
153
残差结构对比 本文也是一种残差结构,只是逐渐增加特征通道数,而不是像以前的一样,在下采样之后双倍特征图。 ResNet参数多了,删除下采样单元(双倍特征维度)仍然导致表现下降 how 每一个单元特征数目增加 网络结构 αα \alphaα是一个超参数,文中=48; 这里不能直接使用恒等映射,因为通道 ...
分类:
Web程序 时间:
2020-03-12 23:35:10
阅读次数:
86