首先看到训练时会在命令行里输出 loss 和 total loss,那是怎么做到的呢,通过分析 train.py 源码,看到如下代码 是把 total_loss 加到了 summaries 里,然后就会输出在命令行了,那 summaries 是什么呢? 通过百度看到一篇不错的博客:https://w ...
分类:
其他好文 时间:
2019-04-09 11:02:10
阅读次数:
457
### 1.算法概述 ### 2.算法要点与推导 ### 3.算法特性及优缺点 ### 4.实现和具体例子 ...
分类:
其他好文 时间:
2019-04-08 00:52:32
阅读次数:
197
图像超分辨重构的原理,输入一张像素点少,像素较低的图像, 输出一张像素点多,像素较高的图像 而在作者的文章中,作者使用downsample_up, 使用imresize(img, []) 将图像的像素从原理的384,384降低到96, 96, 从而构造出高水平的图像和低水平的图像 作者使用了三个部分 ...
分类:
其他好文 时间:
2019-04-06 09:23:59
阅读次数:
320
KVM介绍 Kernel-based Virtual Machine的简称,是一个开源的系统虚拟化模块,自Linux 2.6.20之后集成在Linux的各个主要发行版本中。 KVM的虚拟化需要硬件支持(如Intel VT技术或者AMD V技术)。是基于硬件的完全虚拟化。 虚拟化是云计算的基础。虚拟化 ...
分类:
其他好文 时间:
2019-04-04 14:17:31
阅读次数:
182
RDO: 平均误差(SSD/SSE)、均方误差(MSE)、绝对误差和(SAD)、峰值信噪比(PSNR) min D subject to R < Rc 拉格朗日优化(λ为拉格朗日乘子): min J, where J = D +λR RLO: The performance loss P(D) – ...
分类:
其他好文 时间:
2019-04-02 19:50:56
阅读次数:
219
CNN网络架构演进:从LeNet到DenseNet 卷积神经网络可谓是现在深度学习领域中大红大紫的网络框架,尤其在计算机视觉领域更是一枝独秀。CNN从90年代的LeNet开始,21世纪初沉寂了10年,直到12年AlexNet开始又再焕发第二春,从ZF Net到VGG,GoogLeNet再到ResNe ...
分类:
Web程序 时间:
2019-03-29 14:37:50
阅读次数:
203
Focal Loss for Dense Object Detection Intro 这又是一篇与何凯明大神有关的作品,文章主要解决了one stage网络识别率普遍低于two stage网络的问题,其指出其根本原因是样本类别不均衡导致,一针见血,通过改变传统的loss(CE)变为focal lo ...
分类:
Web程序 时间:
2019-03-26 21:19:53
阅读次数:
275
即我们GBDT算法中的损失函数。分类模型和回归模型的损失函数是不一样的。 对于分类模型,有对数似然损失函数"deviance"和指数损失函数"exponential"两者输入选择。默认是对数似然损失函数"deviance"。在原理篇中对这些分类损失函数有详细的介绍。一般来说,推荐使用默认的"devi ...
分类:
其他好文 时间:
2019-03-25 14:56:03
阅读次数:
132
keras训练cnn模型时loss为nan 1.首先记下来如何解决这个问题的:由于我代码中 model.compile(loss='categorical_crossentropy', optimizer='sgd', metrics=['accuracy']) 即损失函数用的是categorica ...
分类:
其他好文 时间:
2019-03-25 10:22:09
阅读次数:
299
最近忙于论文和实习,好久没有刷题了,之前立下的关于triplet loss的flag也莫得了。 某公司压力太大,已离职,希望利用好学生生涯最后一点时间,认认真真找个工作,扎扎实实提高自己技术水平。 其实这两道题都特别简单,均是自己在没有提示的情况下做出来的。 第一道题一个排序再一个遍历就结束了,我从 ...
分类:
其他好文 时间:
2019-03-19 21:46:03
阅读次数:
165