码迷,mamicode.com
首页 >  
搜索关键字:鲁棒性    ( 225个结果
matlab中的try...catch...end
我们知道,matlab的代码是按行执行的,如果碰到错误行,则程序中断。try..catch可以使得可能出错代码不影响后面代码的继续执行,也可以检查,排查,解决程序的一些错误,增强代码的鲁棒性和可靠性。 1、try...end try...end用于尝试运行一段也许可能出错的代码,比如: m = ra ...
分类:其他好文   时间:2018-08-07 23:58:38    阅读次数:369
损失函数
损失函数(loss function)是用来估量你模型的预测值f(x)与真实值Y的不一致程度,它是一个非负实值函数,通常使用L(Y, f(x))来表示,损失函数越小,模型的鲁棒性就越好。损失函数是经验风险函数的核心部分,也是结构风险函数重要组成部分。模型的结构风险函数包括了经验风险项和正则项,通常可 ...
分类:其他好文   时间:2018-07-26 13:05:52    阅读次数:162
DPOS 共识算法 - 缺失的白皮书
Delegated Proof of Stake 这篇“缺失的白皮书”是对委托权益证明(Delegated Proof of Stake, DPOS)的分析,旨在分析DPOS 的工作原理及其鲁棒性(robust)的根源。DPOS 的早期描述可以在 bitshares.org 找到;不过,那个描述里包 ...
分类:编程语言   时间:2018-07-18 19:01:35    阅读次数:180
python 机器学习之岭回归
#岭回归主要是弥补在数据中出现异常值时,提高线性模型的稳定性,即鲁棒性robust import pandas as pd import numpy as np import matplotlib.pyplot as plt from sklearn import linear_model impo ...
分类:编程语言   时间:2018-07-09 15:18:32    阅读次数:695
吴恩达《机器学习》课程总结(7)正则化
7.1过拟合的问题 训练集表现良好,测试集表现差。鲁棒性差。以下是两个例子(一个是回归问题,一个是分类问题) 解决办法: (1)丢弃一些不能帮助我们正确预测的特征。可以使用工选择保留哪些特征,或者使用一些模型选择的算法来帮忙(PCA); (2)正则化。保留素有的特征,但是减少参数的大小。 7.2代价 ...
分类:其他好文   时间:2018-07-02 00:03:49    阅读次数:105
第3课 线性分类器损失函数与最优化
回顾上一节课,我们了解视觉识别,特别是图像分类,这确实是一个非常困难的问题,因为我们必须考虑到这些可能的变化,并使得当我们在识别这些类型时,分类器能够在面对这些变化时具有鲁棒性,例如对猫的识别,似乎存在着难解决的问题,我们仅需要知道如何解决这些问题,同时我们还必须能够在成千上万的其他类型中解决这些问 ...
分类:其他好文   时间:2018-06-25 22:57:08    阅读次数:256
oo第四次博客总结
一、测试与正确性论证差异对比 测试,顾名思义,就是用一些有意义或无意义的输入去检测程序的正确性或鲁棒性,因其直观明了所以在写简单的程序时我们能迅速找出bug并加以解决。并且,这种方式是绝对客观的,只要和正确结果不匹配那么程序就一定存在一些问题。测试最大的缺点便是无法完全覆盖所有情况,即使很大的测试数 ...
分类:其他好文   时间:2018-06-23 14:24:30    阅读次数:190
软件构造复习——7.1健壮性与正确性
一、健壮性和正确性的简单介绍 1.1Robustness 健壮性 1.1.1 定义:健壮性又称鲁棒性,是指软件对于规范要求以外的输入情况的处理能力。所谓健壮的系统是指对于规范要求以外的输入能够判断出这个输入不符合规范要求,并能有合理的处理方式。 简单来说就是系统在正常输入或不正常外部环境下仍能够表现 ...
分类:其他好文   时间:2018-06-21 20:16:35    阅读次数:236
Robust detection of alternative splicing in a population of single cells
鲁棒性很好的可变剪切探测 北卡2016年1月发表在Nucleic Acids Research上的一篇Methodology 当然主要是为了介绍他们的SingleSplice 软件,python脚本实现。但是we should focus on its specific strategies to ...
分类:其他好文   时间:2018-06-18 17:07:29    阅读次数:166
常用的特征处理方法
对于机器学习模型,我们把他们分成基于树的模型和非基于树的模型,因为在处理他们的特征需要不同的方法。 1.数值型特征 如果一个特征的值特别大的话,那么会使得其在非树模型上占有很大的比例,所以我们通常对其做归一化处理。 Outliers:不管是对特征还是标签,异常数据对模型的鲁棒性都会带来较大的打击,所 ...
分类:其他好文   时间:2018-06-14 23:15:59    阅读次数:250
225条   上一页 1 ... 7 8 9 10 11 ... 23 下一页
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!