码迷,mamicode.com
首页 >  
搜索关键字:embedding    ( 237个结果
Facenet Triplet Loss
Triplet Loss 在人脸识别中,Triplet loss被用来进行人脸嵌入的训练。如果你对triplet loss很陌生,可以看一下吴恩达关于这一块的课程。Triplet loss实现起来并不容易,特别是想要将它加到tensorflow的计算图中。 通过本文,你讲学到如何定义triplet  ...
分类:Web程序   时间:2018-10-24 11:57:29    阅读次数:334
Word Embedding理解
一直以来感觉好多地方都吧Word Embedding和word2vec混起来一起说,所以导致对这俩的区别不是很清楚。 其实简单说来就是word embedding包含了word2vec,word2vec是word embedding的一种,将词用向量表示。 1.最简单的word embedding是 ...
分类:其他好文   时间:2018-10-21 13:05:18    阅读次数:404
论文阅读 A SIMPLE BUT TOUGH-TO-BEAT BASELINE FOR SEN- TENCE EMBEDDINGS
"这篇论文" 提出了 SIF sentence embedding 方法, 作者提供的代码在 "Github" . 引入 作为一种 无监督 计算句子之间相似度的方法, sif sentence embedding 使用预训练好的词向量, 使用加权平均的方法, 对句子中所有词对应的词向量进行计算, 得 ...
分类:其他好文   时间:2018-10-14 23:10:07    阅读次数:489
论文阅读之FaceNet: A Unified Embedding for Face Recognition and Clustering
名称:FaceNet: A Unified Embedding for Face Recognition and Clustering 时间:2015.04.13 来源:CVPR 2015         来自谷歌的一篇 ...
分类:Web程序   时间:2018-10-10 21:51:38    阅读次数:208
PCA与LLE
title: LLE (locally linear embedding) LLE (locally linear embedding) 参考: "LLE原理总结" 个人理解 PCA 降维的缺陷 :高维空间各个样本之间存在一些线性关系,降维之后并没有保留这些关系。比如,在高维空间中,其最短路径并不是 ...
分类:其他好文   时间:2018-10-07 11:28:08    阅读次数:837
《A Structured Self-Attentive Sentence Embedding》(注意力机制)
Background and Motivation: 现有的处理文本的常规流程第一步就是:Word embedding。也有一些 embedding 的方法是考虑了 phrase 和 sentences 的。这些方法大致可以分为两种: universal sentence(general 的句子)和 ...
分类:其他好文   时间:2018-10-05 14:04:08    阅读次数:486
[转] 理解NLP中的卷积&&Pooling
转自:http://blog.csdn.net/malefactor/article/details/51078135 CNN是目前自然语言处理中和RNN并驾齐驱的两种最常见的深度学习模型。图1展示了在NLP任务中使用CNN模型的典型网络结构。一般而言,输入的字或者词用Word Embedding的 ...
分类:其他好文   时间:2018-10-02 20:26:34    阅读次数:196
NLPCC2013中文微博细粒度情感识别(二)
偷懒若干天后回归。。在上一篇中我们得到了NLPCC2013的中文微博数据,将其按照8:1:1的比例分成了训练集,验证集和测试集。下一步就是对数据进行预处理以及embedding。这是第一次尝试一边写博客一边把自己的想法记录下来,希望有所帮助。 分析:按照体量的大小可以将文本分为字级别->词级别->实 ...
分类:其他好文   时间:2018-10-02 20:10:56    阅读次数:445
Word Embedding/RNN/LSTM
Embedding Layer是与特定自然语言处理上的神经网络模型联合学习的单词嵌入。 ...
分类:其他好文   时间:2018-09-26 14:55:30    阅读次数:176
keras的Embedding层
输入shape:形如(samples,sequence_length)的2D张量 输出shape:形如 (samples, sequence_length, output_dim) 的3D张量 重要参数 input_dim: 整数,字典长度,即输入数据最大下标+1 output_dim: 整数,代表 ...
分类:其他好文   时间:2018-09-24 00:40:19    阅读次数:965
237条   上一页 1 ... 12 13 14 15 16 ... 24 下一页
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!