码迷,mamicode.com
首页 >  
搜索关键字:pytorch    ( 1103个结果
『PyTorch』第十二弹_nn.Module和nn.functional
一、nn.functional函数基本使用;二、搭配使用nn.Module和nn.functional;三、nn.functional函数构造nn.Module类 ...
分类:其他好文   时间:2018-03-03 16:49:56    阅读次数:489
『PyTorch』第十弹_循环神经网络
nn.RNN;nn.RNNCell;nn.Embedding ...
分类:其他好文   时间:2018-02-28 19:50:46    阅读次数:198
『PyTorch』第七弹_nn.Module扩展层
有下面代码可以看出torch层函数(nn.Module)用法,使用超参数实例化层函数类(常位于网络class的__init__中),而网络class实际上就是一个高级的递归的nn.Module的class。 通常 torch.nn的核心数据结构是Module,它是一个抽象概念,既可以表示神经网络中的 ...
分类:其他好文   时间:2018-02-26 16:26:12    阅读次数:540
Pytorch model saving and loading 模型保存和读取
It is really useful to save and reload the model and its parameters during or after training in deep learning. Pytorch provides two methods to do so. ...
分类:其他好文   时间:2018-02-21 10:52:06    阅读次数:902
『PyTorch』第六弹_最小二乘法的不同实现手段(待续)
PyTorch的Variable ...
分类:其他好文   时间:2018-02-19 16:18:29    阅读次数:1276
『PyTorch』第五弹_深入理解autograd_下:函数扩展&高阶导数
一、封装新的PyTorch函数 继承Function类 forward:输入Variable->中间计算Tensor->输出Variable backward:均使用Variable 线性映射 调用方法一 类名.apply(参数) 输出变量.backward() 开始前向传播 type in for ...
分类:其他好文   时间:2018-02-19 11:35:01    阅读次数:3205
『PyTorch』第五弹_深入理解autograd_下:Variable梯度探究
查看非叶节点梯度的两种方法 在反向传播过程中非叶子节点的导数计算完之后即被清空。若想查看这些变量的梯度,有两种方法: 使用autograd.grad函数 使用hook autograd.grad和hook方法都是很强大的工具,更详细的用法参考官方api文档,这里举例说明基础的使用。推荐使用hook方 ...
分类:其他好文   时间:2018-02-15 21:28:19    阅读次数:937
『PyTorch』第五弹_深入理解autograd_上:Variable
一、Variable类源码简介 二、Variable类和计算图 简单的建立一个计算图,便于理解几个相关知识点: requires_grad参数:是否要求导数,默认False,叶节点指定True后,依赖节点都被置为True .backward()方法:根Variable的方法会反向求解叶Variabl ...
分类:其他好文   时间:2018-02-14 23:16:40    阅读次数:505
『PyTorch』第五弹_深入理解Tensor对象_下:从内存看Tensor
Tensor存储结构如下, 如图所示,实际上很可能多个信息区对应于同一个存储区,也就是上一节我们说到的,初始化或者普通索引时经常会有这种情况。 一、几种共享内存的情况 view 上面代码,我们通过.storage()可以查询到Tensor所对应的storage地址,可以看到view虽然不是inpla ...
分类:其他好文   时间:2018-02-12 21:00:21    阅读次数:257
『PyTorch』第五弹_深入理解Tensor对象_中下:数学计算以及numpy比较
简单数学操作:逐元素操作、归并操作、比较操作;Numpy和Tensor:数组和张量内存共享、广播原理及模拟、expand方法 ...
分类:其他好文   时间:2018-02-12 20:11:42    阅读次数:255
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!