码迷,mamicode.com
首页 >  
搜索关键字:loss    ( 720个结果
在caffe中添加新的layer
比如现在要添加一个vision layer,名字叫Ly_Layer:(一般命名第一个字母大写,其余小写。) 1、属于哪个类型的layer(共五种:common_layer, data_layer, loss_layer, neuron_layer, vision_layer ),就打开哪个 hpp文 ...
分类:其他好文   时间:2016-05-22 18:06:23    阅读次数:298
CS231n - CNN for Visual Recognition Assignment1 ---- SVM
CS231n - CNN for Visual Recognition Assignment1 —- SVM做不出来, 我抄别人的……O(∩_∩)O~ linear_svm.py import numpy as np from random import shuffledef svm_loss_naive(W, X, y, reg): """ Structured SVM loss func...
分类:其他好文   时间:2016-05-13 01:20:00    阅读次数:482
[linux]Ubuntu无法ping通自设网卡的一个解决办法
上周五实验课上,老师要求我们给自己的虚拟机添加新网卡,主机虚拟网络地址为192.168.56.1,DHCP的地址范围是192.168.56.101到192.168.56.254. 之后在Ubuntu下输入ping 192.168.56.1 结果100%loss 我又试着去ping 192.168.5 ...
分类:系统相关   时间:2016-05-06 00:20:22    阅读次数:212
Tutorial: Triplet Loss Layer Design for CNN
Tutorial: Triplet Loss Layer Design for CNN Xiao Wang Recently, I meet a ...
分类:其他好文   时间:2016-05-02 15:32:17    阅读次数:576
将caffe训练时loss的变化曲线用matlab绘制出来
1. 首先是提取 训练日志文件; 2. 然后是matlab代码: 3. 结果展示: ...
分类:其他好文   时间:2016-04-23 21:10:48    阅读次数:196
机器学习中的正则化
1. 正则化概述(Regularization) 监督学习可以简单的理解为在最小化loss function 的同时,保证模型的复杂度尽可能的低,防止出现过拟合(overfitting)。常用的loss函数有square loss(Regression),Hinge Loss(SVM),exp-lo... ...
分类:其他好文   时间:2016-04-15 21:31:38    阅读次数:275
【恢复,1】 redo 日志恢复的各种情况
Recovering After the Loss of Online Redo Log Files If a media failure has affected the online redo logs of a database, then the appropriate recovery p ...
分类:其他好文   时间:2016-03-31 21:46:17    阅读次数:279
caffe之(五)loss层
在caffe中,网络的结构由prototxt文件中给出,由一些列的Layer(层)组成,常用的层如:数据加载层、卷积操作层、pooling层、非线性变换层、内积运算层、归一化层、损失计算层等;本篇主要介绍loss层 1. loss层总述 下面首先给出全loss层的结构设置的一个小例子(定义在.pro
分类:其他好文   时间:2016-03-11 01:14:21    阅读次数:504
caffe画loss和accurary的曲线
需要用到的文件在 caffe/tools/extar/plot_training_log.py.example 还需要用到caffe/tools/extarparse_log.sh 和 caffe/tools/extarextract_seconds.py文件(如果不在当前目录执行记得都拷贝出来)
分类:其他好文   时间:2016-03-04 20:52:37    阅读次数:308
最小二乘法least square
上研究生的时候接触的第一个Loss function就是least square。最近又研究了一下,做个总结吧。 定义看wiki就够了。公式如下 E(w)=12∑n=1N{y?xWT}2E(w)=12∑n=1N{y?xWT}2 其中yy代表类标列向量,xx代表特征行向量,WW代表回归或者分类参数矩阵
分类:其他好文   时间:2016-03-01 12:25:58    阅读次数:211
720条   上一页 1 ... 64 65 66 67 68 ... 72 下一页
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!