L2 Regularization是解决Variance(Overfitting)问题的方案之一,在Neural Network领域里通常还有Drop Out, L1 Regularization等。无论哪种方法,其Core Idea是让模型变得更简单,从而平衡对training set完美拟合、以 ...
分类:
其他好文 时间:
2018-06-30 19:59:15
阅读次数:
150
本文基于: RaJava 2.1.14 ,另外本文不会对操作符的使用进行介绍,详情请参考 "RxJava 2.x Operators" 参考: "rxjavas repeatwhen and retrywhen explained" "【译】对RxJava中.repeatWhen()和.retryW ...
分类:
编程语言 时间:
2018-06-21 11:29:40
阅读次数:
172
参考:https://f1000research.com/articles/4-1521/v1 https://www.biostars.org/p/171766/ http://www.rna-seqblog.com/rpkm-fpkm-and-tpm-clearly-explained/ It ...
分类:
其他好文 时间:
2018-06-21 00:04:50
阅读次数:
262
Sklearn的feature_selection模块中给出了其特征选择的方法,实际工作中选择特征的方式肯定不止这几种的,IV,GBDT等等都ok; 一、移除低方差特征(Removing features with low variance) API函数:sklearn.feature_select ...
分类:
其他好文 时间:
2018-05-14 19:55:20
阅读次数:
5964
model free: high variance. model based: high bias within 1h of human demonstration of each task, VR!!! ...
分类:
其他好文 时间:
2018-05-04 16:55:38
阅读次数:
194
参考: L1 Norm Regularization and Sparsity Explained for Dummies 专为小白解释的文章,文笔十分之幽默 减少feature的数量可以防止over fitting,尤其是在特征比样本数多得多的情况下。 L1就二维而言是一个四边形(L1 norm ...
分类:
其他好文 时间:
2018-04-07 20:07:01
阅读次数:
119
索引 理解 GROUP BY 过滤数据 vs. 过滤分组 GROUP BY 与 ORDER BY 之不成文的规定 子查询 vs. 联表查询 相关子查询和不相关子查询. 增量构造复杂查询 Always More Than One Solution As explained earlier in thi ...
分类:
数据库 时间:
2018-03-31 11:00:40
阅读次数:
226
学习算法的预测误差(泛化误差),分解为三部分:bias,variance,noise。 对于测试样本x,令yD为x在数据集中的标记(可能存在噪声导致标记值和真实值不同),y为x的真实值,f(x;D)在训练集D上学得模型f在x上的输出。以回归任务为例: 学习算法的期望预测:就是在不同的数据集(同一来源 ...
分类:
其他好文 时间:
2018-03-26 12:34:15
阅读次数:
194
If you are a fan of Harry Potter, you would know the world of magic has its own currency system -- as Hagrid explained it to Harry, "Seventeen silver ...
分类:
其他好文 时间:
2018-03-10 20:30:46
阅读次数:
171
In Arcady's garden there grows a peculiar apple-tree that fruits one time per year. Its peculiarity can be explained in following way: there are n inf ...
分类:
其他好文 时间:
2018-03-05 19:29:32
阅读次数:
178