tf 经常更新版本,网上教程又是各版本都有,且不标明版本,致使各种用法难以分清哪个新,哪个旧,这里做个记录,以前的博客我就不更新了,请大家见谅。 tf.nn.rnn_cell 改为 tf.contrib.rnn tf.nn.seq2seq.sequence_loss_by_example 改为 tf ...
分类:
其他好文 时间:
2019-03-18 10:25:16
阅读次数:
208
关于 P1036 【选数】 嗯,新手试炼场的,错了两次,对,我是蒟蒻。 因为这道题对我有帮助,所以,它是好题。 错啦两次,好尬的。 49——17——100; 不费话了,过程函数与递推。 当然要递推: ~~49分的不说了,从未先编译一下试试。~~ 跟着题目走,判断质数。 来一段~~辣鸡~~代码 cpp ...
分类:
其他好文 时间:
2019-03-17 23:41:43
阅读次数:
226
1. 第一弹 "可视化PyTorch、TensorFlow神经网络图,可视化网络的度量【loss,结构,激活值】的一个好工具,hidden layer" "最强数据集50个最佳机器学习公共数据" "之前ICLR2019上那个大名鼎鼎的BigGAN的Demo放出来了,可以浏览器在线运行测试,效果拔群, ...
分类:
其他好文 时间:
2019-03-17 21:31:19
阅读次数:
193
转自:https://blog.csdn.net/Umi_you/article/details/80982190 <! flowchart 箭头图标 勿删 Focal loss 出自何恺明团队Focal Loss for Dense Object Detection一文,用于解决分类问题中数据类别 ...
分类:
其他好文 时间:
2019-03-17 15:20:49
阅读次数:
384
Focal Loss for Dense Object Detection ICCV2017 RBG和Kaiming大神的新作。 论文目标 我们知道object detection的算法主要可以分为两大类:two stage detector和one stage detector。前者是指 ...
分类:
Web程序 时间:
2019-03-17 13:44:13
阅读次数:
333
本文是基于TensorRT 5.0.2基础上,关于其内部的network_api_pytorch_mnist例子的分析和介绍。 本例子直接基于pytorch进行训练,然后直接导出权重值为字典,此时并未dump该权重;接着基于tensorrt的network进行手动设计网络结构并填充权重。本文核心在于 ...
分类:
编程语言 时间:
2019-03-14 13:40:27
阅读次数:
197
本文介绍了欠拟合、过拟合相关概念,分析造成它们的原因,总结了防止过拟合的一般策略。 1 损失函数 损失函数(loss function) : 是用来度量模型预测值f(x)与样本真实标签值y的不一致程度 。 给定输入的样本数据x,模型函数输出一个f(x),这个输出的f(x)与样本的真实值标签值y可能是 ...
分类:
其他好文 时间:
2019-03-11 16:12:22
阅读次数:
186
cifar神经网络的代码说明: 数据主要分为三部分: 第一部分:数据的准备 第二部分:神经网络模型的构造,返回loss和梯度值 第三部分:将数据与模型输入到函数中,用于进行模型的训练,同时进行验证集的预测,来判断验证集的预测结果,保留最好的验证集结果的参数组合 第一部分:数据的准备 第一步:构造列表 ...
分类:
其他好文 时间:
2019-03-07 00:45:43
阅读次数:
233
1. L1范式和L2范式的区别 (1) L1范式是对应参数向量绝对值之和 (2) L1范式具有稀疏性 (3) L1范式可以用来作为特征选择,并且可解释性较强(这里的原理是在实际Loss function 中都需要求最小值,根据L1的定义可知L1最小值只有0,故可以通过这种方式来进行特征选择) (4) ...
分类:
其他好文 时间:
2019-03-06 19:19:18
阅读次数:
220
2019年3月2日09:29:54 正在看SfMLearner的pytorch源码,意识到无监督的深度估计最重要的是利用实体的一致性 来建立loss,entity consistency。 对于一个不移动的物体,相机从一个pose到另一个pose,那个东西一直在那,可以通过 三维结构、光照 等不会突 ...
分类:
其他好文 时间:
2019-03-02 11:01:37
阅读次数:
547