图神经网络node embedding回顾了之前node2vec的例子以及深度学习卷积的一些基础浅层encoder的局限性:参数数量O(v):节点间没有共享参数,每个节点有自己的embedding不能表征未见过的节点没有综合考虑节点特征本节学习图神经网络,多层的非线性的那么,在图中,如何做卷积?如果... ...
分类:
其他好文 时间:
2020-02-07 00:49:21
阅读次数:
98
from: Dacheng Tao 悉尼大学 PROBLEM: time series retrieval: given the current multivariate time series segment, how to obtain its relevant time series segm ...
分类:
其他好文 时间:
2020-02-04 10:40:03
阅读次数:
71
一、PCA 二、MDS 三、Isomap 四、LocallyLinearEmbedding 五、FA 六、FastICA 七、t-SNE ...
分类:
其他好文 时间:
2020-01-08 00:16:45
阅读次数:
71
【符号简介】 ———————————————————————— m——编码器的隐层神经元个数 n——输入序列词向量维度 p——解码器隐层神经元个数 q——输出序列词向量维度 v——词汇表大小 ———————————————————————— 【正文开始】 我们之前遇到的较为熟悉的序列问题,主要是利用 ...
分类:
其他好文 时间:
2019-12-30 00:12:17
阅读次数:
85
【Graph Embedding】: metapath2vec算法 ...
分类:
编程语言 时间:
2019-12-29 17:00:27
阅读次数:
106
[toc] 1.简介 word2vec是Google于2013年推出的开源的获取词向量word2vec的工具包。它包括了一组用于word embedding的模型,这些模型通常都是用浅层(两层)神经网络训练词向量。 Word2vec的模型以大规模语料库作为输入,通过神经网络训练到一个向量空间(通常为 ...
分类:
其他好文 时间:
2019-12-22 20:19:52
阅读次数:
136
简述 在文本语义相似度等句子对的回归任务上,BERT , RoBERTa 拿到sota。 但是,它要求两个句子都被输入到网络中,从而导致巨大开销:从10000个句子集合中找到最相似的sentence-pair需要进行大约5000万个推理计算(约65小时)。 BERT不适合语义相似度搜索,也不适合非监 ...
分类:
Web程序 时间:
2019-12-11 23:26:27
阅读次数:
801
CNN+ Auto-Encoder 实现无监督Sentence Embedding ( 基于Tensorflow) ...
分类:
Web程序 时间:
2019-12-09 13:37:54
阅读次数:
108
使用小批量数据时,模型容易过拟合,所以需要对全量数据进行处理,我是用的是word2vec训练的词向量. 那么训练好对词向量如何加载呢? ...
分类:
其他好文 时间:
2019-12-05 13:37:43
阅读次数:
171
卷积操作主要用于处理类网格结构的数据,对于时间序列以及图像数据的分析与识别具有显著优势 本质特性 稀疏交互 每个输出神经元仅与前一层特定局部区域内的神经元存在连接权重(产生交互) 假设网络中相邻两层分别具有$m$个输入和$n$个输出 全连接网络:$m \times n$个参数的权值矩阵 卷积网络:$ ...
分类:
其他好文 时间:
2019-11-24 17:29:41
阅读次数:
65