一、安装实例 1、创建实例目录 [root@node004]# mkdir -p /usr/local/solr/home/jonychen 2、复制实例相关配置文件 [root@node004]# cp /usr/local/solr/home/configsets/_default/conf - ...
分类:
其他好文 时间:
2018-01-09 22:08:58
阅读次数:
751
起因 需要在ES中使用聚合进行统计分析,但是聚合字段值为中文,ES的默认分词器对于中文支持非常不友好:会把完整的中文词语拆分为一系列独立的汉字进行聚合,显然这并不是我的初衷。我们来看个实例: 输出结果: 既然ES的默认分词器对于中文支持非常不友好,那么有没有可以支持中文的分词器呢?如果有,该如何使用 ...
分类:
其他好文 时间:
2018-01-06 00:06:37
阅读次数:
650
一. 问题: 在使用solr时, 分词器解析中文的时候, 是一个一个字解析的. 这并不是我们想要的结果. 而在lucene中, 使用的中文分词器是 IKAnalyzer. 那么在solr里面, 是不是任然可以用这个呢. 二. 整合 ik 1. 修改schema配置文件 打开如下路径中的managed ...
分类:
其他好文 时间:
2017-12-27 23:54:07
阅读次数:
210
lucene初探, 是为了后面solr做准备的. 如果跳过lucene, 直接去看solr, 估计有点懵. 由于时间的关系, lucene查询方法也有多个, 所以单独出来. 一. 精确查询 在查询的时候, 新建一个Term对象, 进去精确匹配. 前一篇提到过, 经过分词器分下来的每一个词或者一段话, ...
分类:
Web程序 时间:
2017-12-27 22:40:22
阅读次数:
262
lucene初探, 是为了后面solr做准备的. 如果跳过lucene, 直接去看solr, 估计有点懵. 由于时间的关系, lucene查询方法也有多个, 所以单独出来. 一. 精确查询 在查询的时候, 新建一个Term对象, 进去精确匹配. 前一篇提到过, 经过分词器分下来的每一个词或者一段话, ...
分类:
Web程序 时间:
2017-12-27 20:26:12
阅读次数:
207
全文索引不同于常见的聚集索引或非聚集索引,这些索引的内部实现是平衡树(B-Tree)结构,而全文索引在物理上是由一系列的内部表(Internal tables)构成的,这些内部表称作全文索引片段(Fragment),每一个索引片段也叫做一个倒转索引(Inverted index),也就是说,每一个倒 ...
分类:
数据库 时间:
2017-12-26 19:56:20
阅读次数:
260
前言:目前自己在做使用Lucene.net和PanGu分词实现全文检索的工作,不过自己是把别人做好的项目进行迁移。因为项目整体要迁移到ASP.NET Core 2.0版本,而Lucene使用的版本是3.6.0 ,PanGu分词也是对应Lucene3.6.0版本的。不过好在Lucene.net 已经有 ...
分类:
Web程序 时间:
2017-12-26 17:47:03
阅读次数:
525
前言:目前自己在做使用Lucene.net和PanGu分词实现全文检索的工作,不过自己是把别人做好的项目进行迁移。因为项目整体要迁移到ASP.NET Core 2.0版本,而Lucene使用的版本是3.6.0 ,PanGu分词也是对应Lucene3.6.0版本的。不过好在Lucene.net 已经有 ...
分类:
Web程序 时间:
2017-12-14 03:44:19
阅读次数:
224
转自::http://www.cnblogs.com/zhuxiaojie/p/5764680.html,谢谢博主分享 至于为什么要用solr5.5,因为最新的6.10,没有中文的分词器支持,这里使用的是ik分词器,刚好支持到5.5 ik分词器下载地址 :https://github.com/Eug ...
分类:
其他好文 时间:
2017-11-04 23:38:08
阅读次数:
259
无论是solr还是luncene,都对中文分词不太好,所以我们一般索引中文的话需要使用ik中文分词器。 三台机器(192.168.1.236,192.168.1.237,192.168.1.238)已经安装好了solrcloud 我安装的是solr5.5使用的是ik是IKAnalyzer2012FF ...
分类:
其他好文 时间:
2017-10-26 13:28:21
阅读次数:
262