使用远程连接工具连接云服务器 session-->SSH-->输入公网IP,账号默认root,端口号默认22-->输入云服务器密码,盲敲不会有提示的,直接下一步。 ??????? 注意 Attention ??????? 如果云服务器没有开放22的端口号是连接不成功的哦,这个可以在云服务器里面进行添 ...
分类:
其他好文 时间:
2019-02-12 15:57:28
阅读次数:
203
A Model of Saliency-Based Visual Attention for Rapid Scene Analysis 核心思想 从人类视觉心理学的角度入手来研究该问题,采用方法包含了两部分,一是提取显著图(Saliency Map, SM),二是动态更新关注点(Focus of A ...
/* 加粗:语音部分 * 红色:单词部分 * 斜体:语法部分 * 下划线:信号词/句 */ 第 1 段 1.Listen to a conversation between a student and a faculty advisor for the university newspaper. 独... ...
分类:
其他好文 时间:
2019-02-04 18:13:32
阅读次数:
197
1. Customer ObsessionLeaders start with the customer and work backwards. They work vigorously to earn and keep customer trust. Although leaders pay at ...
分类:
其他好文 时间:
2019-01-31 13:06:37
阅读次数:
242
注意力seq2seq模型 大部分的seq2seq模型,对所有的输入,一视同仁,同等处理。 但实际上,输出是由输入的各个重点部分产生的。 比如: (举例使用,实际比重不是这样) 对于输出“晚上”, 各个输入所占比重: 今天 50%,晚上 50%,吃 100%,什么 0% 对于输出“吃”, 各个输入所占 ...
分类:
其他好文 时间:
2019-01-26 13:18:32
阅读次数:
505
Attention 机制。 参考:https://blog.csdn.net/xiewenbo/article/details/79382785 要是关注深度学习在自然语言处理方面的研究进展,我相信你一定听说过Attention Model(后文有时会简称AM模型)这个词。AM模型应该说是过去一年来 ...
分类:
其他好文 时间:
2019-01-24 20:15:10
阅读次数:
154
原文链接: https://blog.csdn.net/qq_41058526/article/details/80578932 <! flowchart 箭头图标 勿删 attention 总结 参考:注意力机制(Attention Mechanism)在自然语言处理中的应用 Attention函 ...
分类:
其他好文 时间:
2019-01-15 22:04:44
阅读次数:
227
最近一直在做多标签分类任务,学习了一种层次注意力模型,基本结构如下: 简单说,就是两层attention机制,一层基于词,一层基于句。 首先是词层面: 输入采用word2vec形成基本语料向量后,采用双向GRU抽特征: 一句话中的词对于当前分类的重要性不同,采用attention机制实现如下: te ...
分类:
Web程序 时间:
2019-01-14 21:22:44
阅读次数:
1037
MySql in子句 效率低下优化 背景: 更新一张表中的某些记录值,更新条件来自另一张含有200多万记录的表,效率极其低下,耗时高达几分钟。 耗时 365s 优化后 耗时 1.41s 总结:对于where xxx in 子句效率极其低下问题,经过in的子句外包装一层select xxx from( ...
分类:
数据库 时间:
2019-01-08 00:19:13
阅读次数:
192
问题一 运行 问题二 运行 经过google后,说是线程开太多导致的,然后我就train_full_rl.py把其中的 从4改为1. 这样再次运行就可以了。 问题三 应该是显存不够了。之前上一次运行都行,不可能这一次就突然显存不够了,于是重启云GPU。然后重新运行。问题消失,程序跑出正确结果。 ...
分类:
其他好文 时间:
2019-01-03 22:40:43
阅读次数:
865