知道端口号,如何查看应用位置 [root@localhost sbin]# netstat -nlp |grep 8080 tcp 0 0 :::8080 :::* LISTEN 2357/java [root@localhost sbin]# netstat -nlp |grep 8080 tcp ...
分类:
其他好文 时间:
2017-08-16 15:38:37
阅读次数:
148
Sphinx + Coreseek 实现中文分词搜索 Sphinx Coreseek 实现中文分词搜索 全文检索 1 全文检索 vs 数据库 2 中文检索 vs 汉化检索 3 自建全文搜索与使用Google等第三方站点提供的站内全文搜索的差别 Sphinx Coreseek介绍 Coreseek安装 ...
分类:
其他好文 时间:
2017-08-14 23:27:39
阅读次数:
467
概念:One/Zero-shot learning 训练集中没有样本的学习;和transfer learning/domain adoption有关 NN很成功,但是每个领域都有自己的model;本文尝试搞一个统一的模型 之前也有人尝试过NLP/语音识别/人脸检测的多任务学习,但是不是跨域地 目前的 ...
分类:
其他好文 时间:
2017-08-14 10:20:39
阅读次数:
299
动态规划 + viterbi最短路径 + 1阶马尔可夫链 最短路径分词是将可能性最大的句子切分出来。首先对句子进行全切分,找出所有可能的字词,利用动态规划生成词图,并利用1阶马尔可夫链计算出所有的路径权值,找出图中最短的路径,属于机械式规则+统计的分词方法。 在句子头尾分别加上B 和 E,找出B和E ...
分类:
其他好文 时间:
2017-08-09 00:04:12
阅读次数:
186
分三步1、先分词2、做BEMS标注,同时做词性标注3、训练模型 1、对语料进行分词 拿到测试部的语料或者其他渠道的语料,先对语料进行分词,我刚刚开始是用NS分词的,等CRF模型训练好后,可以直接用CRF进行分词,分完词后要人工核对分词结果,将分词分得不正确的地方修改好 2、标注词性,标注BEMS B ...
分类:
其他好文 时间:
2017-08-09 00:03:19
阅读次数:
316
http://www.hankcs.com/nlp/word2vec.html http://www.cnblogs.com/peghoty/p/3857839.html word2vec 是 Google 于 2013 年开源推出的一个用于获取 word vector 的工具包,它简单、高效,因此 ...
分类:
其他好文 时间:
2017-08-08 10:58:24
阅读次数:
147
1.效果演示: 2.思路: 定义一个文本输入框,并在其下面定义一个div框,开始时候隐藏。当输入一个字母后就ajax异步请求数据,将返回的结果显示在div框中,并显示div框,点击div时将数据填充在文本输入框。 3.定义一个input输入框 4.当键盘按下松开时去异步请求数据 对返回的数据进行处理 ...
分类:
其他好文 时间:
2017-08-07 22:14:41
阅读次数:
180
作者: 寒小阳 && 龙心尘 时间:2016年2月。 出处:http://blog.csdn.net/han_xiaoyang/article/details/50629608 http://blog.csdn.net/longxinchen_ml/article/details/50629613 ...
分类:
其他好文 时间:
2017-08-06 13:55:00
阅读次数:
267
import jieba msg_list = jieba.cut("我在学习自然语言处理",cut_all=True) #是全模式 print(msg_list) print("全模式:"+"/".join(msg_list)) msg_list = jieba.cut("我在学习自然语言处理", ...
分类:
其他好文 时间:
2017-08-05 19:42:54
阅读次数:
150
本文是对github上fork的xing_NLP中的用N-gram语言模型做完型填空这样一个NLP项目环境搭建的一个说明,本来写在README.md中。第一次用github中的wiki,想想尝试一下也不错,然而格式非常的混乱,自己都不满意,所以先在博客园记录一下,等github博客搭建成功了再说。 ...
分类:
编程语言 时间:
2017-07-20 23:53:47
阅读次数:
512