主要是遇坑了,要记录一下。 solver算是caffe的核心的核心,它协调着整个模型的运作。caffe程序运行必带的一个参数就是solver配置文件。运行代码一般为 在Deep Learning中,往往loss function是非凸的,没有解析解,我们需要通过优化方法来求解。solver的主要作用 ...
分类:
其他好文 时间:
2018-08-30 16:53:27
阅读次数:
194
Given an array S of n integers, are there elements a, b, c in S such that a + b + c = 0? Find all unique triplets in the array which gives the sum of ...
分类:
其他好文 时间:
2018-08-30 11:10:19
阅读次数:
178
为了检查daq01与刀片服务器之间的网络连接状态, 1. 使用ping命令的输出规律,如果可以ping通,会输出0% packet loss值; 如果不能ping通,则不会输出0% packet loss 2. 若ping命令输出0% packet loss执行成功,则表示网络连接正常,否则网络连接 ...
分类:
系统相关 时间:
2018-08-29 14:03:11
阅读次数:
202
log_softmax log(softmax(X)) function:torch.nn.functional.log_softmax(x, dim=None) nn:torch.nn.LogSoftmax(dim=None) 如: nll_loss The negative log likeli ...
分类:
其他好文 时间:
2018-08-25 00:38:34
阅读次数:
1954
欧式距离: l2范数: l2正则化: l2-loss(也叫平方损失函数): http://openaccess.thecvf.com/content_cvpr_2017/papers/Li_Mimicking_Very_Efficient_CVPR_2017_paper.pdf 总结:l2范数和欧式 ...
分类:
其他好文 时间:
2018-08-24 19:25:51
阅读次数:
439
USE masterGO ALTER DATABASE DEMO SET SINGLE_USERGOALTER DATABASE DEMO SET EMERGENCYGODBCC CHECKDB(DEMO,REPAIR_ALLOW_DATA_LOSS)GOALTER DATABASE DEMO SE ...
分类:
数据库 时间:
2018-08-23 13:09:48
阅读次数:
230
权重衰减是应对过拟合问题的常用方法。 $L_2$范数正则化 在深度学习中,我们常使用L2范数正则化,也就是在模型原先损失函数基础上添加L2范数惩罚项,从而得到训练所需要最小化的函数。 L2范数惩罚项指的是模型权重参数每个元素的平方和与一个超参数的乘积。如:$w_1$,$w_2$是权重参数,b是偏差参 ...
分类:
Web程序 时间:
2018-08-23 00:38:44
阅读次数:
380
构建数据集 数据迭代器 训练并展示结果 gb.semilogy函数:绘制训练和测试数据的loss 使用 Gluon 的 wd 超参数可以使用权重衰减来应对过拟合问题。 我们可以定义多个 Trainer 实例对不同的模型参数使用不同的迭代方法。 ...
分类:
Web程序 时间:
2018-08-23 00:35:41
阅读次数:
280
Hostnames or NetBIOS names were used to provide a friendlier means of identifying servers or workstations. NetBIOS names is based on an older protocol ...
分类:
移动开发 时间:
2018-08-22 16:57:40
阅读次数:
163
optimizer是在训练中,运用到的训练方法,最常用的是梯度下降法,去寻找最优loss,tf中常见的optimizer有: 通过Dr.Sebastian Ruder 的论文An overview of gradient descent optimization algorithms来详细了解一些优 ...
分类:
其他好文 时间:
2018-08-21 12:43:53
阅读次数:
517