正则化方法:防止过拟合,提高泛化能力 避免过拟合的方法有很多:Early stopping、数据集扩增(Data augmentation)、正则化(Regularization)包括L1、L2(L2 regularization也叫weight decay),dropout。 L2 regular ...
分类:
其他好文 时间:
2018-12-23 16:52:23
阅读次数:
133
继承(泛化):用实线空心三角箭头表示 实现(接口):用虚线空心三角形箭头标示 依赖:虚线箭头,类A指向类B 方法参数需要传入另一个类的对象,就表示依赖这个类 关联:实线箭头,类A指向类B 一个类的全局变量引用了另一个类,就表示关联了这个类 聚合:尾部为空心菱形的实线箭头(也可以没箭头),类A指向类B ...
分类:
其他好文 时间:
2018-12-17 14:24:18
阅读次数:
160
tuple 的主要用途,就是把各种类型的参数组合成一个新的数据关联体(结构体),相当于早期的 std::pair 的泛化版本。 组合存储是方便了,但是,对于某些特定的应用场景,解包就成了个比较麻烦的事情。为此,我查看 gcc 8.2.0 版的 STL ...
分类:
编程语言 时间:
2018-12-15 19:49:51
阅读次数:
840
虚线箭头指向依赖; 实线箭头指向关联; 虚线三角指向接口; 实线三角指向父类; 空心菱形能分离而独立存在,是聚合; 实心菱形精密关联不可分,是组合; 上面是UML的语法。 在画类图的时候,理清类和类之间的关系是重点。类的关系有泛化(Generalization)、实现(Realization)、依赖 ...
分类:
其他好文 时间:
2018-12-15 17:26:43
阅读次数:
178
什么是评估机器学习模型 机器学习的目的是得到可以泛化(generalize)的模型,即在前所未见的数据上表现很好的模型,而过拟合则是核心难点。你只能控制可以观察的事情,所以能够可靠地衡量模型的泛化能力非常重要。 如何衡量泛化能力,即如何评估机器学习模型。 评估模型的重点是将数据划分为三个集合:训练集 ...
分类:
其他好文 时间:
2018-12-13 01:19:21
阅读次数:
398
"1. DNN神经网络的前向传播(FeedForward)" "2. DNN神经网络的反向更新(BP)" "3. DNN神经网络的正则化" 1. 前言 和普通的机器学习算法一样,DNN也会遇到过拟合的问题,需要考虑泛化,这里我们就对DNN的正则化方法做一个总结。 2. DNN的L1和L2正则化 想到 ...
分类:
其他好文 时间:
2018-12-13 01:15:36
阅读次数:
209
XGBoost其实是由一群训练出来的CART回归树集成出来的模型。 目标 目标其实就是训练一群回归树,使这树群的预测值尽量接近真实值,并且有尽可能强大的泛化能力。来看看我们的优化函数: 优化函数 i表示的是第i个样本,前一项是表示的是预测误差。后一项表示的是树的复杂度的函数,值越小表示复杂度越低,泛 ...
分类:
其他好文 时间:
2018-12-12 23:54:46
阅读次数:
351
一、自编码器:降维【无监督学习】 PCA简介:【线性】原矩阵乘以过渡矩阵W得到新的矩阵,原矩阵和新矩阵是同样的东西,只是通过W换基。 自编码: 自编码和PCA的区别: 由于神经网络能够学习非线性关系,因此可以认为这是PCA更有力(非线性)的泛化。而PCA试图发现描述原始数据的低维超平面,自编码器则能 ...
分类:
Web程序 时间:
2018-12-12 22:10:26
阅读次数:
368
第2章 模型评估与选择 2.1 经验误差与过拟合 先引出几个基本概念: 误差(error):学习器的实际预测输出与样本的真实输出之间的差异。 训练误差(training error):学习器在训练集上的误差,也称“经验误差”。 测试误差(testing error):学习器在测试集上的误差。 泛化误 ...
分类:
其他好文 时间:
2018-12-07 22:33:17
阅读次数:
338
在java开发中,有很多时候我们是在不断的处理类与类之间关系,其中这六种关系是:依赖、关联、聚合、组合、继承、实现. 它们的强弱关系是没有异议的:依赖 < 关联 < 聚合 < 组合<泛化(继承) 类是对象的集合,展示了对象的结构以及与系统的交互行为。类主要有属性(Attribute)和方法(Meth ...
分类:
其他好文 时间:
2018-12-01 20:19:37
阅读次数:
228