Tensor 1--本质上可以理解为具有不同维度的数组 2--支持的基本运算 | 创建Tensor: x=t.tensor(x,y) x,y 表示数组的大小 , x=t.rand(x,y), x=t.ones(x,y) | 获取Tensor的大小 x.size() | 加法运算 | 普通加法(返回新 ...
分类:
其他好文 时间:
2019-02-26 09:12:08
阅读次数:
169
torch.abs(input, out=None): 计算输入张量的每个元素的绝对值 torch.acos(input, out=None): 返回一个新张量,包含输入张量每个元素的反余弦函数 torch.add(input, value, out=None): 对输入张量input逐元素加上标量 ...
分类:
其他好文 时间:
2019-02-24 23:07:08
阅读次数:
349
1 主流深度学习框架对比 当今的软件开发基本都是分层化和模块化的,应用层开发会基于框架层。比如开发Linux Driver会基于Linux kernel,开发Android app会基于Android Framework。深度学习也不例外,框架层为上层模型开发提供了强大的多语言接口、稳定的运行时、高 ...
分类:
其他好文 时间:
2019-02-20 11:19:13
阅读次数:
211
译者: "GeneZC" 返回给定非线性函数的推荐的增益值。对应关系如下表: | 非线性函数 | 增益 | | | | | Linear / Identity | | | Conv{1,2,3}D | | | Sigmoid | | | Tanh | | | ReLU | | | Leaky Rel ...
分类:
其他好文 时间:
2019-02-17 19:10:05
阅读次数:
216
译者: "yuange250" 跟绝大部分基于连续存储的数据结构类似,本质上是一个单一数据类型的一维连续数组(array)。 每一个 " " 都有一个与之相对应的 对象,两者存储数据的数据类型(data type)保持一致。 下面以数据类型为float的 为例介绍一下 的成员函数。 byte()函数 ...
分类:
其他好文 时间:
2019-02-17 19:02:19
阅读次数:
218
译者: "hijkzzz" 警告 这个API目前还处于试验阶段,可能在不久的将来会发生变化。 Torch支持COO(rdinate )格式的稀疏张量,这可以有效地存储和处理大多数元素为零的张量。 稀疏张量表示为一对稠密张量:一个值张量和一个二维指标张量。一个稀疏张量可以通过提供这两个张量,以及稀疏张 ...
分类:
其他好文 时间:
2019-02-10 12:29:02
阅读次数:
215
译者: "片刻" " " 用于设置和运行 CUDA 操作。它会跟踪当前选定的GPU,并且默认情况下会在该设备上创建您分配的所有 CUDA tensors。可以使用 " " 上下文管理器更改所选设备。 但是,一旦分配了 tensor,就可以对其进行操作而不管所选择的设备如何,结果将始终与 tensor ...
分类:
其他好文 时间:
2019-02-10 12:27:37
阅读次数:
172
译者: "hijkzzz" 卷积函数 conv1d 对由多个输入平面组成的输入信号进行一维卷积. 有关详细信息和输出形状, 请参见 " " . 注意 在某些情况下, 当使用CUDA后端与CuDNN时, 该操作符可能会选择不确定性算法来提高性能. 如果这不是您希望的, 您可以通过设置 来尝试使操作具有 ...
分类:
其他好文 时间:
2019-02-10 12:24:38
阅读次数:
311
译者: "ETCartman" 之前我们已经学过了许多的前馈网络. 所谓前馈网络, 就是网络中不会保存状态. 然而有时 这并不是我们想要的效果. 在自然语言处理 (NLP, Natural Language Processing) 中, 序列模型是一个核心的概念. 所谓序列模型, 即输入依赖于时间信 ...
分类:
其他好文 时间:
2019-02-10 12:24:22
阅读次数:
195
译者: "hijkzzz" " " 是一种包含单一数据类型元素的多维矩阵. Torch定义了八种CPU张量类型和八种GPU张量类型: | Data type | dtype | CPU tensor | GPU tensor | | | | | | | 32 bit floating point | ...
分类:
其他好文 时间:
2019-02-10 12:20:05
阅读次数:
435