一、nn.functional函数基本使用;二、搭配使用nn.Module和nn.functional;三、nn.functional函数构造nn.Module类 ...
分类:
其他好文 时间:
2018-03-03 16:49:56
阅读次数:
489
nn.RNN;nn.RNNCell;nn.Embedding ...
分类:
其他好文 时间:
2018-02-28 19:50:46
阅读次数:
198
有下面代码可以看出torch层函数(nn.Module)用法,使用超参数实例化层函数类(常位于网络class的__init__中),而网络class实际上就是一个高级的递归的nn.Module的class。 通常 torch.nn的核心数据结构是Module,它是一个抽象概念,既可以表示神经网络中的 ...
分类:
其他好文 时间:
2018-02-26 16:26:12
阅读次数:
540
It is really useful to save and reload the model and its parameters during or after training in deep learning. Pytorch provides two methods to do so. ...
分类:
其他好文 时间:
2018-02-21 10:52:06
阅读次数:
902
一、封装新的PyTorch函数 继承Function类 forward:输入Variable->中间计算Tensor->输出Variable backward:均使用Variable 线性映射 调用方法一 类名.apply(参数) 输出变量.backward() 开始前向传播 type in for ...
分类:
其他好文 时间:
2018-02-19 11:35:01
阅读次数:
3205
查看非叶节点梯度的两种方法 在反向传播过程中非叶子节点的导数计算完之后即被清空。若想查看这些变量的梯度,有两种方法: 使用autograd.grad函数 使用hook autograd.grad和hook方法都是很强大的工具,更详细的用法参考官方api文档,这里举例说明基础的使用。推荐使用hook方 ...
分类:
其他好文 时间:
2018-02-15 21:28:19
阅读次数:
937
一、Variable类源码简介 二、Variable类和计算图 简单的建立一个计算图,便于理解几个相关知识点: requires_grad参数:是否要求导数,默认False,叶节点指定True后,依赖节点都被置为True .backward()方法:根Variable的方法会反向求解叶Variabl ...
分类:
其他好文 时间:
2018-02-14 23:16:40
阅读次数:
505
Tensor存储结构如下, 如图所示,实际上很可能多个信息区对应于同一个存储区,也就是上一节我们说到的,初始化或者普通索引时经常会有这种情况。 一、几种共享内存的情况 view 上面代码,我们通过.storage()可以查询到Tensor所对应的storage地址,可以看到view虽然不是inpla ...
分类:
其他好文 时间:
2018-02-12 21:00:21
阅读次数:
257
简单数学操作:逐元素操作、归并操作、比较操作;Numpy和Tensor:数组和张量内存共享、广播原理及模拟、expand方法 ...
分类:
其他好文 时间:
2018-02-12 20:11:42
阅读次数:
255