RNN模型由于具有短期记忆功能,因此天然就比较适合处理自然语言等序列问题,尤其是引入门控机制后,能够解决长期依赖问题,捕获输入样本之间的长距离联系。本文的模型是堆叠两层的LSTM和GRU模型,模型的结构为:LSTM(GRU)—dropout—LSTM(GRU)—dropout—全连接层—输出层,比较 ...
分类:
其他好文 时间:
2019-05-09 13:50:15
阅读次数:
1162
卷积神经网络(CNN)因为在图像识别任务中大放异彩,而广为人知,近几年卷积神经网络在文本处理中也有了比较好的应用。我用TextCnn来做文本分类的任务,相比TextRnn,训练速度要快非常多,准确性也比较高。TextRnn训练慢得像蜗牛(可能是我太没有耐心),以至于我直接中断了训练,到现在我已经忘记 ...
分类:
其他好文 时间:
2019-04-13 21:56:09
阅读次数:
409
朴素贝叶斯是一个概率模型,在数学上能用概率解释的模型一般被认为是好模型。 朴素贝叶斯常用于文本分类。 先介绍几个基础概念。 1. 概率 设x为符合某种特征的样本,H为某个假设,比如假设x属于类别c,那分类就是求这个假设发生的概率,即P(H|x)的大小。 P(H|X)是后验概率,或者说在条件X下,H的 ...
分类:
其他好文 时间:
2019-04-06 09:21:09
阅读次数:
97
影评文本分类 文本分类(Text classification):https://www.tensorflow.org/tutorials/keras/basic_text_classification主要步骤: 1.加载IMDB数据集 2.探索数据:了解数据格式、将整数转换为字词 3.准备数据 4 ...
分类:
其他好文 时间:
2019-03-27 00:15:13
阅读次数:
284
1. tf.nn.embedding_lookup(W, X) W的维度为[len(vocabulary_list), 128], X的维度为[?, 8],组合后的维度为[?, 8, 128] 代码说明一下:即根据每一行X中的一个数,从W中取出对应行的128个数据,比如X[1, 3]个数据是3062 ...
分类:
其他好文 时间:
2019-03-25 01:06:33
阅读次数:
226
1.自动文本分类是对大量的非结构化的文字信息(文本文档、网页等)按照给定的分类体系,根据文字信息内容分到指定的类别中去,是一种有指导的学习过程。 分类过程采用基于统计的方法和向量空间模型可以对常见的文本网页信息进行分类,分类的准确率可以达到85%以上。分类速度50篇/秒。 2.要想分类必须先分词,进 ...
分类:
其他好文 时间:
2019-03-24 23:06:57
阅读次数:
197
NLPIR大数据语义智能分析平台是根据中文数据挖掘的综合需求,融合了网络精准采集、自然语言理解、文本挖掘和语义搜索的研究成果,并针对互联网内容处理的全技术链条的共享开发平台。 ...
分类:
其他好文 时间:
2019-03-12 12:03:31
阅读次数:
156
朴素贝叶斯 朴素贝叶斯概述 文本分类 准备数据:从文 本中构建词向量 训练算法:从词向量计算概率 贝叶斯分类函数 词袋模型 一个小优化,相比与之前只统计词出现与否的词条模型,词袋模型统计词出现的次数 垃圾邮件过滤 不清楚为什么我做出来的错误率这么高,算了,先放着吧 最后一个不写了 ...
分类:
其他好文 时间:
2019-02-26 11:54:06
阅读次数:
195
做一个中文文本分类任务,首先要做的是文本的预处理,对文本进行分词和去停用词操作,来把字符串分割成词与词组合而成的字符串集合并去掉其中的一些非关键词汇(像是:的、地、得等)。再就是对预处理过后的文本进行特征提取。最后将提取到的特征送进分类器进行训练。 一、什么是自然语言处理 一、什么是自然语言处理 一 ...
分类:
其他好文 时间:
2019-02-04 20:56:40
阅读次数:
276
BERT预训练模型在诸多NLP任务中都取得最优的结果。在处理文本分类问题时,即可以直接用BERT模型作为文本分类的模型,也可以将BERT模型的最后层输出的结果作为word embedding导入到我们定制的文本分类模型中(如text-CNN等)。总之现在只要你的计算资源能满足,一般问题都可以用BER ...
分类:
其他好文 时间:
2019-01-31 18:19:05
阅读次数:
927