码迷,mamicode.com
首页 >  
搜索关键字:方差    ( 1381个结果
均匀分布
一、概率密度函数和分布函数分布函数是概率密度函数从负无穷到正无穷上的积分;在坐标轴上,概率密度函数的函数值y表示落在x点上的概率为y;分布函数的函数值y则表示x落在区间(-∞,+∞)上的概率。二、均匀分布的概率密度函数假设x服从[a,b]上的均匀分布,则x的概率密度函数如下 概率密度图像如上图所示三 ...
分类:其他好文   时间:2020-02-25 09:20:05    阅读次数:45
【代码周边】MongoDB与Mysql对比以及插入稳定性分析(指定主键的影响)
在数据库存放的数据中,有一种特殊的键值叫做主键,它用于惟一地标识表中的某一条记录。也就是说,一个表不能有多个主键,并且主键不能为空值。 无论是MongoDB还是MySQL,都存在着主键的定义。 对于MongoDB来说,其主键名叫”_id”,在生成数据的时候,如果用户不主动为其分配一个主键的话,Mon ...
分类:数据库   时间:2020-02-24 18:49:45    阅读次数:78
机器学习--偏差和方差
这篇博文主要是解释偏差和方差,以及如何利用偏差和方差理解机器学习算法的泛化性能 综述 在有监督学习中,对于任何学习算法而言,他们的预测误差可分解为三部分 偏差 方差 噪声 噪声属于不可约减误差,无论使用哪种算法,都无法减少噪声。 通常噪声是从问题的选定框架中引入的错误,也可能是由诸如未知变量之类的因 ...
分类:其他好文   时间:2020-02-23 22:09:21    阅读次数:202
如何获取论文的 idea
知乎上有一个提问“计算机视觉领域如何从别人的论文里获取自己的idea?” 非常有意思,这里也总结下: Cheng Li的回答: 找40篇比较新的paper,最好是开源的、你能看懂的、尽可能时髦的、大佬点赞的。然后画一个40 40的矩阵,对角线上的元素不看,还剩下1560个元素。每个元素看看A+B是不 ...
分类:其他好文   时间:2020-02-23 09:25:12    阅读次数:74
理解:时间序列的平稳性
为什么要平稳? 研究时间序列的最终目的是,预测未来。但是未来是不可知的,我们拥有的数据都是历史,因此只能用历史数据来预测未来。但是,如果过去的数据与未来的数据没有某种“相似度”,那这种预测就毫无道理了。平稳性就是保证这种过去与未来的相似性,如果数据是平稳的,那么可以认为过去的数据表现出的某些性质,未 ...
分类:其他好文   时间:2020-02-22 14:09:27    阅读次数:62
方差分析的MATLAB实现(单因子)
单因子方差分析是比较俩组或多组数据的均值,它返回原假设——均值相等的概率,在matlab中我们可以用函数 anova1进行单因子方差分析。 函数anova1 格式: p=anova1(X) %X的各列为彼此独立的样本观察值,其元素个数相同,p为各列均值相等的概率值,若p值 接近于0,则原假设受到质疑 ...
分类:其他好文   时间:2020-02-22 09:50:12    阅读次数:69
mean,std,var
1、 均值 数学定义: MATLAB中均值、方差、均方差的计算方法 Matlab函数:mean x=[1 2 3]; mean(x) ans = 2 如果X是一个矩阵,则其均值是一个向量组。mean(X,1)为列向量的均值,mean(X,2)为行向量的均值。 x=[1 2 3;4 5 6]; mea ...
分类:其他好文   时间:2020-02-22 09:48:43    阅读次数:77
压缩感知(九)
PSNR评价 PSNR可简单地由均方差MSE进行定义。PSNR基于图像像素灰度值进行统计分析。由于人类视觉特性的差异性,通常出现的评价结果与人的主要感觉不一致,但其仍然是一个有参考价值的评价指标。 其求解公式为 这里的MAX通常是图像的灰度级,一般就是255。当用于对比2幅图像相似的时候,PSNR越 ...
分类:其他好文   时间:2020-02-19 14:51:59    阅读次数:82
学习日记(2.15---2.16)
1.数据标准化 数据标准化就是把数据的特征减去关于的这个特征的平均值再除以这个特征的方差,效果是把数据都变成0附近的一些数值,方便计算,同时保存特征。 from sklearn.preprocessing import StandardScaler ss=StandardScaler() x=ss. ...
分类:其他好文   时间:2020-02-17 00:50:18    阅读次数:96
梯度下降法求解多元线性回归
线性回归形如y=w*x+b的形式,变量为连续型(离散为分类)。一般求解这样的式子可采用最小二乘法原理,即方差最小化, loss=min(y_pred-y_true)^2。若为一元回归,就可以求w与b的偏导,并令其为0,可求得w与b值;若为多元线性回归, 将用到梯度下降法求解,这里的梯度值w的偏导数, ...
分类:其他好文   时间:2020-02-16 14:37:25    阅读次数:59
1381条   上一页 1 ... 12 13 14 15 16 ... 139 下一页
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!