码迷,mamicode.com
首页 >  
搜索关键字:loss    ( 720个结果
RetinaNet
论文信息 Tsung Yi Lin, Priya Goyal, Ross Girshick, Kaiming He, Piotr Dollár, Focal Loss for Dense Object Detection, ICCV 2017. https://arxiv.org/abs/1708. ...
分类:Web程序   时间:2019-07-30 00:16:50    阅读次数:182
SRGAN 学习心得
一、理论 关于SRGAN的的论文中文翻译网上一大堆,可以直接读网络模型(大概了解),关于loss的理解,然后就能跑代码 loss = mse + 对抗损失 + 感知损失 : https://blog.csdn.net/DuinoDu/article/details/78819344 二、代码及其理解 ...
分类:其他好文   时间:2019-07-28 19:24:09    阅读次数:570
深度学习面试题28:标签平滑(Label smoothing)
目录 产生背景 工作原理 参考资料 产生背景 假设选用softmax交叉熵训练一个三分类模型,某样本经过网络最后一层的输出为向量x=(1.0, 5.0, 4.0),对x进行softmax转换输出为: 假设该样本y=[0, 1, 0],那损失loss: 按softmax交叉熵优化时,针对这个样本而言, ...
分类:其他好文   时间:2019-07-27 12:43:48    阅读次数:130
caffer的三种文件类别
solver文件 是一堆超参数,比如迭代次数,是否用GPU,多少次迭代暂存一次训练所得参数,动量项,权重衰减(即正则化参数),基本的learning rate,多少次迭代打印一次loss,以及网络结构描述文件(即model文件)存储位置,等等 比如: lenet_solver.prototxt mo ...
分类:其他好文   时间:2019-07-20 09:42:44    阅读次数:91
支持向量机原理(二) 线性支持向量机的软间隔最大化模型
支持向量机原理(一) 线性支持向量机 支持向量机原理(二) 线性支持向量机的软间隔最大化模型 支持向量机原理(三)线性不可分支持向量机与核函数 支持向量机原理(四)SMO算法原理 支持向量机原理(五)线性支持回归 在支持向量机原理(一) 线性支持向量机中,我们对线性可分SVM的模型和损失函数优化做了... ...
分类:其他好文   时间:2019-07-19 18:59:11    阅读次数:89
sqlyog 导入 loss connection
导致我找了很久都没有找到原因,以为是5.5mysql导出来的再导入5.7mysql版本不一样出错了。 试了百度的很多种方法都没有用,试着用命令行导入报: ERROR 1153 (08S01) at line 1012: Got a packet bigger than ‘max_allowed_pa ...
分类:数据库   时间:2019-07-17 16:50:46    阅读次数:114
ML Lecture4: Classification
1.为什么不用Regression? 用Regression显然会得到紫色线,而不是绿线 2.定义Loss Function 即分类不正确的样本个数 3.求每个元素在某个类别的概率 p(class1|x) = p(x|class1)p(class1) / [p(x|class1)p(class1) ...
分类:其他好文   时间:2019-07-12 14:25:07    阅读次数:86
R2CNN论文思路记录
Rotational region cnn 我们的目标是检测任意方向的场景文本,与RRPN类似,我们的网络也基于FasterR-CNN ,但我们采用不同的策略,而不是产生倾斜角度建议。 我们认为RPN有资格生成文本候选,并根据RPN提出的候选文本预测方向信息 检测步骤: 如图所示:a.原图片 b.通 ...
分类:其他好文   时间:2019-07-10 20:06:38    阅读次数:160
[信号]回波损耗(Return Loss)
回波损耗是传输线端口的反射波功率与入射波功率之比,以对数形式的绝对值来表示,单位是dB,一般是正值。 反射系数(r)为反射波电压与入射波电压的比值取对数,而回波损耗(rL)为反射功率与入射功率之比。取对数运算时,可以推到出两者的相互关系如下: 例如:当r=0.1时可以得到回拨损耗为20dB;即反射功 ...
分类:其他好文   时间:2019-07-10 18:56:16    阅读次数:113
09-pytorch(优化器)
优化器 Momentum 从平地到了下坡的地方,加速了他的行走 AdaGrad 让每一个参数都有学习率,相当给人穿了一双鞋子 RMSProp 是两者的结合 比较四个优化器 Epoch: 0 Epoch: 1 Epoch: 2 Epoch: 3 Epoch: 4 Epoch: 5 Epoch: 6 E ...
分类:其他好文   时间:2019-07-08 19:29:23    阅读次数:75
720条   上一页 1 ... 20 21 22 23 24 ... 72 下一页
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!