码迷,mamicode.com
首页 >  
搜索关键字:nlp    ( 935个结果
清华大学-刘知远:表示学习与知识获取
恢复内容开始 分布式表示优势: 在一段文本当中,进行实体抽取:实际是在计算词汇与文档之间的相似度。 自动摘要技术:是在计算句子与文档之间的相似度。 优势2:由表层的数据,关联关系,能够进一步挖掘出数据底层的深层语义,因果关系。 ———————————————————————————————————— ...
分类:其他好文   时间:2019-02-20 21:25:09    阅读次数:284
拓展 - Webrtc 的回声抵消(aec、aecm)算法简介
webrtc 的回声抵消(aec、aecm)算法简介 webrtc 的回声抵消(aec、aecm)算法主要包括以下几个重要模块:1.回声时延估计 2.NLMS(归一化最小均方自适应算法) 3.NLP(非线性滤波) 4.CNG(舒适噪声产生),一般经典aec算法还应包括双端检测(DT)。考虑到webr ...
分类:编程语言   时间:2019-02-18 11:38:24    阅读次数:244
深度双向Transformer预训练【BERT第一作者分享】
翻译自Jacob Devlin分享的slides [TOC] NLP中的预训练 词嵌入是利用深度学习解决自然语言处理问题的基础。 词嵌入(例如word2vec,GloVe)通常是在一个较大的语料库上利用词共现统计预训练得到的。例如下面两个句子中,由于 king 和 queen 附近的上下文时常相同或 ...
分类:其他好文   时间:2019-02-13 12:27:45    阅读次数:382
详解中文是如何进行分词 - NLP学习(中文篇)
之前在其他博客文章有提到如何对英文进行分词,也说后续会增加解释我们中文是如何分词的,我们都知道英文或者其他国家或者地区一些语言文字是词与词之间有空格(分隔符),这样子分词处理起来其实是要相对容易很多,但是像中文处理起来就没有那么容易,因为中文字与字之间,词与词之间都是紧密连接在一起的,所以第一件事需 ...
分类:其他好文   时间:2019-02-12 00:04:09    阅读次数:203
NLP常用术语解析
分词(Segment):中英文都存在分词的问题,不过相对来说,英文单词与单词之间本来就有空格进行分割,所以处理起来相对方便。但是中文书写是没有分隔符的,所以分词的问题就比较突出。分词常用的手段可以是基于字典的最长串匹配,据说可以解决85%的问题,但是歧义分词很难。另外就是当下主流的统计机器学习的办法 ...
分类:其他好文   时间:2019-02-11 12:56:10    阅读次数:175
PyTorch 1.0 中文官方教程:序列模型和LSTM网络
译者: "ETCartman" 之前我们已经学过了许多的前馈网络. 所谓前馈网络, 就是网络中不会保存状态. 然而有时 这并不是我们想要的效果. 在自然语言处理 (NLP, Natural Language Processing) 中, 序列模型是一个核心的概念. 所谓序列模型, 即输入依赖于时间信 ...
分类:其他好文   时间:2019-02-10 12:24:22    阅读次数:195
NLP基础
做一个中文文本分类任务,首先要做的是文本的预处理,对文本进行分词和去停用词操作,来把字符串分割成词与词组合而成的字符串集合并去掉其中的一些非关键词汇(像是:的、地、得等)。再就是对预处理过后的文本进行特征提取。最后将提取到的特征送进分类器进行训练。 一、什么是自然语言处理 一、什么是自然语言处理 一 ...
分类:其他好文   时间:2019-02-04 20:56:40    阅读次数:276
NLP入门(六)pyltp的介绍与使用
pyltp的简介   语言技术平台(LTP)经过哈工大社会计算与信息检索研究中心 11 年的持续研发和推广, 是国内外最具影响力的中文处理基础平台。它提供的功能包括中文分词、词性标注、命名实体识别、依存句法分析、语义角色标注等。   pyltp 是 LTP 的 ...
分类:其他好文   时间:2019-01-31 19:14:54    阅读次数:1077
BERT模型在多类别文本分类时的precision, recall, f1值的计算
BERT预训练模型在诸多NLP任务中都取得最优的结果。在处理文本分类问题时,即可以直接用BERT模型作为文本分类的模型,也可以将BERT模型的最后层输出的结果作为word embedding导入到我们定制的文本分类模型中(如text-CNN等)。总之现在只要你的计算资源能满足,一般问题都可以用BER ...
分类:其他好文   时间:2019-01-31 18:19:05    阅读次数:927
将句子表示为向量(上):无监督句子表示学习(sentence embedding)
1. 引言 word emedding技术如word2vec,glove等已经广泛应用于NLP,极大地推动了NLP的发展。既然词可以embedding,句子也应该可以(其实, "万物皆可embedding" ,Embedding is All You Need ^_^)。近年来(2014 2018) ...
分类:其他好文   时间:2019-01-30 17:16:50    阅读次数:825
935条   上一页 1 ... 34 35 36 37 38 ... 94 下一页
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!