码迷,mamicode.com
首页 >  
搜索关键字:triple loss    ( 896个结果
CS231n assignment3 Q4 Style Transfer
""Image Style Transfer Using Convolutional Neural Networks" (Gatys et al., CVPR 2015)" . 复现这一篇论文中的代码 loss由三部分组成,内容loss,风格loss,正则化loss,其中风格loss使用gram矩阵 ...
分类:其他好文   时间:2019-01-05 15:06:45    阅读次数:233
Focal Loss 的理解
论文:《Focal Loss for Dense Object Detection》 Focal Loss 是何恺明设计的为了解决one-stage目标检测在训练阶段前景类和背景类极度不均衡(如1:1000)的场景的损失函数。它是由二分类交叉熵改造而来的。 标准交叉熵 其中,p是模型预测属于类别y= ...
分类:其他好文   时间:2019-01-04 17:22:54    阅读次数:1132
SPOJ-EIGHTS Triple Fat Ladies【数学规律】
"Triple Fat Ladies" Pattern Matchers have been designed for various sorts of patterns. Mr. HKP likes to observe patterns in numbers. After completing ...
分类:其他好文   时间:2019-01-03 18:15:14    阅读次数:220
训练模型之loss曲线滑动平均
- 只依赖python - 依赖torch - 依赖torch ...
分类:其他好文   时间:2019-01-01 20:59:37    阅读次数:720
用keras 和 tensorflow 构建手写字识别神经网路
#导入数据 import numpy as np import tensorflow as tf import matplotlib.pyplot as plt from keras.datasets import mnist (train_images, train_labels), (test_... ...
分类:其他好文   时间:2018-12-29 21:11:57    阅读次数:335
JVM 内存设置大小(Xms Xmx PermSize MaxPermSize 区别)
Eclipse崩溃,错误提示:MyEclipse has detected that less than 5% of the 64MB of Perm Gen (Non-heap memory) space remains. It is strongly recommendedthat you ex ...
分类:其他好文   时间:2018-12-27 18:37:06    阅读次数:144
常用损失函数积累
损失函数(loss function)是用来估量模型的预测值f(x)与真实值Y的不一致程度,它是一个非负实值函数,通常使用L(Y, f(x))来表示,损失函数越小,模型的鲁棒性就越好。损失函数是经验风险函数的核心部分,也是结构风险函数重要组成部分。模型的结构风险函数包括了经验风险项和正则项,通常可以 ...
分类:其他好文   时间:2018-12-24 19:04:06    阅读次数:165
机器学习中的损失函数
着重介绍hige loss 和 softmax loss。 "svm回顾" $C_1,C_2$是要区分的两个类别,通过分类函数执行时得到的值与阈值的大小关系来决定类别归属,例如: $$g(x) = g(w^Tx+b)$$ 我们取阈值为0,此时$f(x)=sgn[g(x)]$就是最终的判别函数。对于同 ...
分类:其他好文   时间:2018-12-22 13:06:44    阅读次数:409
强化学习(十三) 策略梯度(Policy Gradient)
在前面讲到的DQN系列强化学习算法中,我们主要对价值函数进行了近似表示,基于价值来学习。这种Value Based强化学习方法在很多领域都得到比较好的应用,但是Value Based强化学习方法也有很多局限性,因此在另一些场景下我们需要其他的方法,比如本篇讨论的策略梯度(Policy Gradien ...
分类:其他好文   时间:2018-12-18 19:49:21    阅读次数:353
faster-rcnn代码阅读2
二、训练 接下来回到train.py第160行,通过调用sw.train_model方法进行训练: 方法中的self.solver.step(1)即是网络进行一次前向传播和反向传播。前向传播时,数据流会从第一层流动到最后一层,最后计算出loss,然后loss相对于各层输入的梯度会从最后一层计算回第一 ...
分类:其他好文   时间:2018-12-17 02:20:31    阅读次数:229
896条   上一页 1 ... 32 33 34 35 36 ... 90 下一页
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!