码迷,mamicode.com
首页 > 其他好文 > 详细

covariate shift

时间:2020-07-10 19:12:42      阅读:45      评论:0      收藏:0      [点我收藏+]

标签:标准   概念   相关性   art   样本   http   数据分布   能力   class   

BN解决方差漂移理论

训练集的数据分布和预测集的数据分布不一致,这样的情况下如果我们在训练集上训练出一个分类器,肯定在预测集上不会取得比较好的效果。这种训练集和预测集样本分布不一致的问题就叫做“covariate shift”现象

训练集和测试集的数据分布不一致,因此训练出来的模型是没有泛化能力的

解决方法

reweight:其实就是重新给训练集中的数据赋予一个新的权重即Reweight操作

比方说对于样本\(x_i\),它在训练集中 的分布是 \(q\left(x_{i}\right),\) 在预测集中的真实分布是 \(p\left(x_{i}\right),\) 那么它的新权重就是 \(\frac{p\left(x_{i}\right)}{q\left(x_{i}\right)}\) 。那么现在的问题就变成了如何确定样本 \(x_{i}\) 在训练集和预测集 中的真实分布。其实用的方法特别的巧妙,同样用的是机器学习的方法:Logistic Rgression,就是随机的从训练集和测试集随机的抽取 样本,根据他们的来源不同,把来自训练集的样本标注为1,把来自预测集的样本标注为-1。把这份数据分成新的训练集和测试集,
说明这些数据的分布不一致,反之亦然。具体的计算公式如下: \(p\left(z=1 \mid x_{i}\right)=\frac{p\left(x_{i}\right)}{p\left(x_{i}\right)+q\left(x_{i}\right)} / / \mathrm{z}=1\) 表示该样本来自于之前的预测集分布 \(p,\) z=-1表示该样本来自于之前的训练集分布 \(q_{\bullet}\) 当训练好了 Logistic Regression分类器之后, \(p\left(z=1 \mid x_{i}\right)=\frac{1}{1+e^{-f\left(x_{i}\right)}},\) 然后就很容易推出对于样本 \(x_{i}\) 来说, 它reweight的权值是 \(\frac{p\left(z=1 \mid x_{i}\right)}{p\left(z=-1 \mid x_{i}\right)}=\) \(e^{f\left(x_{i}\right)},\) 其中的 \(f\left(x_{i}\right)\) 就是我们训练出来的分类器。

具体的还是要读下BN的原文~

MCC(Matthews correlation coefficient)

作为判断“covariate shift”现象出现的标准

这个指标本质上是用一个训练集数据和预测集数据之间的相关系数,取值在[-1,1]之间,如果是1就是强烈的正相关,0就是没有相关性,-1就是强烈的负相关。它的具体计算和confusion matrix概念相关

  • TP(True Positive):真实为1,预测为1
  • FN(False Negative):真实为1,预测为0
  • FP(False Positive):真实为0,预测为1
  • TN(True Negative):真实为0, 预测为0

\(M c c=\frac{T P * T N-F P * F N}{\sqrt{(T P+F P)(T P+F N)(T N+F P)(T N+F N)}}\)
(PS:衡量二分类效果的几个指标, ACC (准确率),Rec (召回率) , F值, AUC, MCC, 它们各自对应了自己的应用场景)** 对于Logistic Regression分类器,计算其Mcc值, 一般认为如果该值大于0.2,说明预测集和测试集相关度高,也就是说明分类器容易把 在训练集上学习到的经验应用在预测集上, 也就是说明出现了covariate shift的现象; 如果小于0.2,就没有出现covariate shift现象。**

参考博客guoyuhaoaaa

covariate shift

标签:标准   概念   相关性   art   样本   http   数据分布   能力   class   

原文地址:https://www.cnblogs.com/gaowenxingxing/p/13280612.html

(0)
(0)
   
举报
评论 一句话评论(0
登录后才能评论!
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!