之前用的adam优化器一直是这样的: alpha_optim = torch.optim.Adam(model.alphas(), config.alpha_lr, betas=(0.5, 0.999), weight_decay=config.alpha_weight_decay) 没有细想内部参 ...
分类:
其他好文 时间:
2020-07-27 17:57:09
阅读次数:
187
作者|DR. VAIBHAV KUMAR 编译|VK 来源|Analytics In Diamag 文本分类是自然语言处理的重要应用之一。在机器学习中有多种方法可以对文本进行分类。但是这些分类技术大多需要大量的预处理和大量的计算资源。在这篇文章中,我们使用PyTorch来进行多类文本分类,因为它有如 ...
分类:
其他好文 时间:
2020-07-27 15:47:34
阅读次数:
72
1、@是用来对tensor进行矩阵相乘的: import torch d = 2 n=50 X = torch.randn(n,d) true_w = torch.tensor([[-1.0],[2.0]]) y = X @ true_w + torch.randn(n,1)*0.1 print(X ...
分类:
其他好文 时间:
2020-07-27 09:38:46
阅读次数:
78
原因一:找到错误点,增加以下语句: with torch.no_grad(): outputs = Net_(inputs) 错误代码的位置。 原因二:GPU没有选对 os.environ["CUDA_VISIBLE_DEVICES"] = "0, 2, 3" 查看性能,发现nVidia的只有GPU ...
分类:
其他好文 时间:
2020-07-26 22:55:56
阅读次数:
297
作者|DR. VAIBHAV KUMAR 编译|VK 来源|Analytics In Diamag 自然语言处理(NLP)有很多有趣的应用,文本生成就是其中一个有趣的应用。 当一个机器学习模型工作在诸如循环神经网络、LSTM-RNN、GRU等序列模型上时,它们可以生成输入文本的下一个序列。 PyTo ...
分类:
其他好文 时间:
2020-07-26 19:20:18
阅读次数:
68
1.word Embedding的概念理解 首先,我们先理解一下什么是Embedding。Word Embedding翻译过来的意思就是词嵌入,通俗来讲就是将文字转换为一串数字。因为数字是计算机更容易识别的一种表达形式。我们词嵌入的过程,就相当于是我们在给计算机制造出一本字典的过程。计算机可以通过这 ...
分类:
其他好文 时间:
2020-07-26 00:59:25
阅读次数:
94
PyTorch在深度学习领域中的应用日趋广泛,得益于它独特的规划。无论是数据的并行处理仍是动态计算图,全部都为Python做出了许多简化。许多论文都挑选运用PyTorch去完成也证明了它在练习方面的功率以及易用性。 在PyTorch领域,虽然布置一个模型有许多挑选,可为Java开发人员准备的选项却寥 ...
分类:
编程语言 时间:
2020-07-26 00:56:44
阅读次数:
112
【任务一】视频学习心得及问题总结 根据下面三个视频的学习内容,写一个总结,最后列出没有学明白的问题。 【任务二】代码练习 在谷歌 Colab 上完成代码练习中的 2.1、2.2、2.3、2.4 节,关键步骤截图,并附一些自己的想法和解读。 【任务三】进阶练习 在谷歌 Colab 上完成猫狗大战的VG ...
分类:
其他好文 时间:
2020-07-26 00:54:11
阅读次数:
69
parameter 官网API 其可以将普通张量转变为模型参数的一部分。Parameters是Tensor的一个子类,当用于Module时具有非常特殊的属性,当其被赋予为模块的属性时,他们自动地添加到模块参数列表中,且将会出现在如parameters()迭代器中。如果赋予一个普通张量则没有这样的效果 ...
分类:
其他好文 时间:
2020-07-26 00:08:06
阅读次数:
72
1. 例子 import numpy as np import torch from torch import nn, optim from torchtext import data, datasets import numpy as np import torch from torch impo ...
分类:
其他好文 时间:
2020-07-25 09:23:34
阅读次数:
111