码迷,mamicode.com
首页 >  
搜索关键字:jieba    ( 462个结果
【Python】文本包jieba使用
看了一个教程:https://www.cnblogs.com/wkfvawl/p/9487165.html 有些不懂的地方自己查阅了一下 键值的添加,获得文件中相同字符出现的次数, counts = ,counts.get(word,0) 一个常用的统计词频的方法 txt = "a b c d a ...
分类:编程语言   时间:2021-06-06 18:55:44    阅读次数:0
python 二级 第三方库(pip 、pyinstaller、jieba、wordcloud)
安装方式 首选pip安装,pip安装失败选择自定义安装、文件安装,一般windows系统pip安装有时会失败 pip安装 pip -h 查看指令 自定义安装 路径: https://www.scipy.org/scipylib/download.html 文件安装路径: http://www.lfd ...
分类:编程语言   时间:2021-06-02 14:24:22    阅读次数:0
ciyunzuoye
from wordcloud import WordCloudfrom scipy.misc import imreadimport matplotlib.pyplot as pltimport jieba def read_deal_text(): with open("ciyun.txt","r ...
分类:其他好文   时间:2021-04-29 12:18:48    阅读次数:0
好不容易写完的词云
from PIL import Image import wordcloud import numpy as np import matplotlib.pyplot as plt import jieba #文本处理 def f(): with open('停用词.txt','r',encoding ...
分类:其他好文   时间:2021-04-28 12:10:50    阅读次数:0
李尔王皮卡丘
from PIL import Image import wordcloud import numpy as np import matplotlib.pyplot as plt import jieba #文本处理 def f(): with open('停用词.txt','r',encoding ...
分类:其他好文   时间:2021-04-28 12:10:30    阅读次数:0
django入门到精通⑥消息管理器的升级处理,对关键词进行过滤示例
django入门到精通⑥消息管理器的升级处理,对关键词进行过滤示例# 安装分词工具(python37_django2) D:\python\message_test>pip install jieba 设置message_test/settings.py 1.自定义分词工具app/templatet ...
分类:其他好文   时间:2021-01-07 12:05:08    阅读次数:0
jieba库的使用说明
1、jieba库基本介绍 (1)、jieba库概述 jieba是优秀的中文分词第三方库 -中文文本需要通过分词获得单个的词语 - jieba是优秀的中文分词第三方库,需要额外安装 - jieba库提供三种分词模式,最简单只需掌握一个函数 (2)、jieba分词的原理 Jieba分词依靠中文词库 - ...
分类:其他好文   时间:2020-12-09 12:09:11    阅读次数:6
python学习记录
目录 jieba 分词 ''' 函数 jieba.cut(sentence, cut_all=False) 参数 sentence为待分词的字符串 cut_all为是否为全模式 返回指 生成器 ''' import jieba sentence = "我考上了清华大学" seg_list = jie ...
分类:编程语言   时间:2020-12-04 11:19:10    阅读次数:7
西游记相关的分词,出现次数最高的20个
import jieba txt = open("西游记.txt", "r", encoding='utf-8').read() words = jieba.lcut(txt) # 使用精确模式对文本进行分词 counts = {} # 通过键值对的形式存储词语及其出现的次数 for word in ...
分类:其他好文   时间:2020-11-20 11:30:40    阅读次数:32
聊斋分词
import jieba txt = open("聊斋志异白话简写版.txt", "r", encoding='utf-8').read() words = jieba.lcut(txt) # 使用精确模式对文本进行分词 counts = {} # 通过键值对的形式存储词语及其出现的次数 for w ...
分类:其他好文   时间:2020-11-20 11:24:38    阅读次数:3
462条   1 2 3 4 ... 47 下一页
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!