中文词频统计 1. 下载一长篇中文小说。 2. 从文件读取待分析文本。 3. 安装并使用jieba进行中文分词。 pip install jieba import jieba ljieba.lcut(text) 4. 更新词库,加入所分析对象的专业词汇。 jieba.add_word('天罡北斗阵' ...
分类:
其他好文 时间:
2019-06-19 19:58:28
阅读次数:
129
不同分词工具原理解析 对各种分词工具的介绍,具体参考: http://www.cnblogs.com/en-heng/p/6234006.html 具体参考: https://blog.csdn.net/rav009/article/details/12196623 jieba分词原理解析 采用的是 ...
分类:
其他好文 时间:
2019-06-14 22:08:31
阅读次数:
1527
知识点 1、wiki词库处理 繁体字转为简体字 2、对简体语料库进行jieba分词 3、word2vec建模 4、加载模型,预测 ...
分类:
其他好文 时间:
2019-06-11 12:42:31
阅读次数:
103
微信,已经成为人们必不可少的社交工具。每个人的微信里都有形形色色的人,你了解他们吗?他们又来自哪呢? 今天我们就来编写一个关于好友分析的代码 下载依赖库 在此之前,我们需要下载七个库:Pillow、Pyecharts、Itchat、Jieba、Numpy、Pandas、wxpy 打开Anaconda ...
分类:
微信 时间:
2019-06-09 18:24:20
阅读次数:
197
使用 python 进行微信好友分析 1. 使用到的库 ① wxpy:初始化微信机器人 ② openpyxl:保存微信好友数据为Excel表格 ③ pyecharts:生成可视化的地图 ④ wordcloud、matplotlib、jieba:生成词云图 【特别提醒】:pyecharts 库用的是0 ...
分类:
微信 时间:
2019-06-05 00:13:40
阅读次数:
124
所用库 1、pillow 2、pyecharts 3、itchat 4、jieba 5、numpy 6、pandas 7、wxpy 温馨提示:1、本篇博因需要所用pyecharts为0.5.X版本,anaconda所下载的是1.X.X版本 2、调用pyechart中的map模块需要安装地图数据包: ...
分类:
微信 时间:
2019-06-03 15:49:06
阅读次数:
228
使用 python 进行微信好友分析 1. 使用到的库 ① wxpy:初始化微信机器人 ② openpyxl:保存微信好友数据为Excel表格 ③ pyecharts:生成可视化的地图 ④ wordcloud、matplotlib、jieba:生成词云图 【特别提醒】:pyecharts 库用的是0 ...
分类:
微信 时间:
2019-06-02 11:40:17
阅读次数:
143
jieba简介 python在数据挖掘领域的使用越来越广泛。想要使用python做文本分析,分词是必不可少的一个环节在python的第三方包里,jieba应该算得上是分词领域的佼佼者。 GitHub地址:https://github.com/fxsjy/jieba 安装方法 主要算法 基于前缀词典实 ...
分类:
编程语言 时间:
2019-05-28 14:11:28
阅读次数:
457
Mac环境下 jieba 配置记录pip3 install jieba完事了 样例: 1 import jieba 2 s="我??山东大学" 3 ls=jieba.lcut(s) 4 print(ls) ...
分类:
系统相关 时间:
2019-05-22 17:44:03
阅读次数:
288
引入模块: 1、中文分词:jieba 2、绘图库:matplotlib 3、数组运算、数学函数库numpy 例: import numpy as np from matplotlib import pyplot as plt x = np.arange(1,11) y = 2 * x + 5 plt ...
分类:
编程语言 时间:
2019-05-21 15:58:22
阅读次数:
116