BEGAN: 创新: 1.不是考虑生成图片与真实图片之间的真实的分布,而是估计分布的误差的分布之间的差距。 2.G,D的能力平衡提出了一种均衡的概念 3。提供了一种超参数,这超参数可以在图片的多样性和生成质量之间做均衡 判别模型是自编码器,生成模型则借鉴了wgan的损失函数 一张图片相当于一个数据x ...
分类:
其他好文 时间:
2019-11-17 16:16:16
阅读次数:
56
讲授卷积神经网络面临的挑战包括梯度消失、退化问题,和改进方法包括卷积层、池化层的改进、激活函数、损失函数、网络结构的改 进、残差网络、全卷机网络、多尺度融合、批量归一化等 大纲: 面临的挑战梯度消失问题退化问题改进的总体思路卷积层的改进用矩阵乘法实现卷积运算池化层的改进激活函数的改进损失函数的改进高 ...
分类:
其他好文 时间:
2019-11-11 23:08:20
阅读次数:
166
1.均方误差(Mean Square Error / Quadratic Loss): MSE保证没有特别异常的预测值,因为平方部分放大了这种误差。 2.平均绝对误差(Mean Absolute Error): MAE保证预测值在大多数情况下表现良好(不会刻意管异常值),因为所有的误差都按相同的线性 ...
分类:
其他好文 时间:
2019-11-09 19:29:01
阅读次数:
102
<! TOC "多层感知机" "定义模型的参数" "定义激活函数" "定义模型" "定义损失函数" "训练模型" "小结" <! /TOC 多层感知机 我们仍然使用Fashion_MNIST数据集,使用多层感知机对图像进行分类 定义模型的参数 Fashion_MNIST数据集汇总的图形的形状为28x ...
分类:
其他好文 时间:
2019-11-07 13:24:15
阅读次数:
104
主要内容: XGBoost算法的介绍 XGBoost算法的损失函数 XGBoost函数介绍 算法的应用实战——信用卡欺诈行为的识别 1.XGBoost算法的介绍 XGBoost是由传统的GBDT模型发展而来的,GBDT模型在求解最优化问题时应用了一阶导技术,而XGBoost则使用损失函数的一阶和二阶 ...
分类:
数据库 时间:
2019-11-01 20:53:31
阅读次数:
158
主要内容: 1.模型介绍 提升树算法与线性回归模型的思想类似,所不同的是该算法实现了多棵基础决策树𝑓(𝑥)的加权运算,最具代表的提升树为AdaBoost算法,即 2.损失函数的介绍 对于Adaboost算法而言,每一棵基础决策树都是基于前一棵基础决策树的分类结果对样本点设置不同的权重,如果在前一 ...
分类:
编程语言 时间:
2019-10-31 20:07:33
阅读次数:
154
为高效找到使损失函数的值最小的参数,关于最优化(optimization)提了很多方法。 其中包括: SGD(stochastic gradient descent,随机梯度下降)Momentum(冲量算法)AdagradAdam 各优化算法比较实验(python) # -*- coding: ut ...
分类:
编程语言 时间:
2019-10-28 16:13:48
阅读次数:
82
原文地址:https://blog.csdn.net/weixin_39502247/article/details/80032487 深度学习的优化算法,说白了就是梯度下降。每次的参数更新有两种方式。 第一种,遍历全部数据集算一次损失函数,然后算函数对各个参数的梯度,更新梯度。这种方法每更新一次参 ...
分类:
其他好文 时间:
2019-10-26 17:38:02
阅读次数:
142
[toc] 过拟合 机器学习中,如果参数过多、模型过于复杂,容易造成过拟合。 结构风险最小化原理 在经验风险最小化(训练误差最小化)的基础上,尽可能采用简单的模型,以提高模型泛化预测精度。 正则化 为了避免过拟合,最常用的一种方法是使用正则化,例如L1和L2正则化。 所谓的正则化,就是在原来损失函数 ...
分类:
其他好文 时间:
2019-10-24 09:52:40
阅读次数:
96
为了加深对卷积神经网络底层原理的理解,本文通过使用numpy来搭建一个基础的包含卷积层、池化层、全连接层和Softmax层的卷积神经网络,并选择relu作为我们的激活函数,选择多分类交叉熵损失函数,最后使用了mnist数据集进行了训练和测试。 关于卷积网络的详细原理和实现可参考下列文章: "刘建平P ...
分类:
其他好文 时间:
2019-10-24 00:16:55
阅读次数:
83