码迷,mamicode.com
首页 >  
搜索关键字:词    ( 36129个结果
LeetCode290-单词规律
非商业,LeetCode链接附上: https://leetcode-cn.com/problems/word-pattern/ 进入正题。 题目: 给定一种规律 pattern 和一个字符串 str ,判断 str 是否遵循相同的规律。 这里的 遵循 指完全匹配,例如, pattern 里的每个字 ...
分类:其他好文   时间:2020-11-25 12:43:50    阅读次数:7
熬夜冠军小队数据库设计心得
一、团队项目信息 项目名称:纸云记单词微信小程序 指导老师:陈浩 开发小组:熬夜冠军小队 小组成员:黎欣宇、程开龙、李梦珠、彭李轶哲、唐思琳 二、数据库设计过程 1、概念结构设计 2、逻辑结构设计 3、数据库物理设计 三、设计心得 黎欣宇: 数据库的设计是一个项目中非常重要的一部分,数据库的设计往往 ...
分类:数据库   时间:2020-11-24 13:02:23    阅读次数:20
我的词典我做主!Python3.5生成自己的词性词典
由于朋友需要做文本分析,前提是要将文本中的名词和动词剔除掉,但没有现成的名词和动词的txt格式的词典。于是找来了一个英汉词典,根据每一行出现的adj、adv、n、prep等,使用正则表达式匹配需要的词性,并将其追加写入到txt文件中。建议大家使用python3.5,3的优点是避免了很多编码问题。3代表着python的未来,大家还是应该多多的对未来投资。比如,我要生成形容词的词典。步骤:1、应先使用
分类:编程语言   时间:2020-11-24 12:52:59    阅读次数:6
NLP自然语言处理
老实来讲这课我一头雾水满脑袋问号 import numpy as np from collections import Counter counttime = 0 #统计训练语料:spam 和 ham 各自评论总数,单词频率 def seperate(filename): hamcnt = Coun ...
分类:编程语言   时间:2020-11-23 12:07:30    阅读次数:7
RESTful API
REST描述的是在网络中client和server的一种交互形式;REST本身不实用,实用的是如何设计 RESTful API(REST风格的网络接口); Server提供的RESTful API中,URL中只使用名词来指定资源,原则上不使用动词。“资源”是REST架构或者说整个网络处理的核心。比如 ...
分类:Windows程序   时间:2020-11-21 12:37:23    阅读次数:15
韩语语法_2
10:有/没有?/???/??11:在/不在?/?+场所名词+??/??表示在或者不在12:名词加终结语尾+???/?否定形式加?/?+?+???/??(无收音的时候加)表示是或者是吗否定形式为?/?+????表示不是或者不是吗13:谓词加终结语尾+???/?或者在无收音时加???/?+(元音是????)用??/(元音是????以外用)??14:过去时态体词+??+终结语尾表示从前是否定形式体词+
分类:其他好文   时间:2020-11-20 12:23:18    阅读次数:27
编译原理 — 用Flex构造词法分析器
基于Flex构造词法分析器 【问题描述】设计c语言常见单词的正规式,编制lex源文件,利用flex编译得到词法分析的.c文件,继而对该文件编译得到词法分析器。 【输入形式】输入一段c语言程序 【输出形式】各类单词的token字,或者给出程序中的单词错误。 【样例输入】 int main(){ int ...
分类:其他好文   时间:2020-11-20 11:54:33    阅读次数:6
西游记相关的分词,出现次数最高的20个
import jieba txt = open("西游记.txt", "r", encoding='utf-8').read() words = jieba.lcut(txt) # 使用精确模式对文本进行分词 counts = {} # 通过键值对的形式存储词语及其出现的次数 for word in ...
分类:其他好文   时间:2020-11-20 11:30:40    阅读次数:32
Union-Find算法详解
今天讲讲 Union-Find 算法,也就是常说的并查集算法,主要是解决图论中「动态连通性」问题的。名词很高端,其实特别好理解,等会解释,另外这个算法的应用都非常有趣。 说起这个 Union-Find,应该算是我的「启蒙算法」了,因为《算法4》的开头就介绍了这款算法,可是把我秀翻了,感觉好精妙啊!后 ...
分类:编程语言   时间:2020-11-20 11:25:40    阅读次数:5
聊斋分词
import jieba txt = open("聊斋志异白话简写版.txt", "r", encoding='utf-8').read() words = jieba.lcut(txt) # 使用精确模式对文本进行分词 counts = {} # 通过键值对的形式存储词语及其出现的次数 for w ...
分类:其他好文   时间:2020-11-20 11:24:38    阅读次数:3
36129条   上一页 1 ... 44 45 46 47 48 ... 3613 下一页
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!