码迷,mamicode.com
首页 >  
搜索关键字:lucene indexwriter lock    ( 16119个结果
开发,从需求出发 · 之三 春天在哪里
从需求出发并不是一句空话,在开发过程中也是如此。 从需求出发,实质上是暗合了极限编程和测试驱动开发的一些思想。 鉴于网站开发是一个比较流行的方向,我打算从一个网站开始,阐述一下自己对“需求驱动开发“的理解,并将其引申到一个更广泛的领域。...
分类:其他好文   时间:2014-07-24 10:37:26    阅读次数:395
开发,从需求出发 · 之四 春天在这里
从需求出发并不是一句空话,在开发过程中也是如此。 从需求出发,实质上是暗合了极限编程和测试驱动开发的一些思想。 鉴于网站开发是一个比较流行的方向,我打算从一个网站开始,阐述一下自己对“需求驱动开发“的理解,并将其引申到一个更广泛的领域。...
分类:其他好文   时间:2014-07-24 10:35:53    阅读次数:373
【Solr基础教程之X】配置文件:Solr.xml SolrConfig.xml Schema.xml
1、关于默认搜索域 If you are using the Lucene query parser, queries that don't specify a field name will use the defaultSearchField. The DisMax and Extended DisMax query parsers do not use this value.  ...
分类:其他好文   时间:2014-07-23 22:38:28    阅读次数:279
重写lucene.net的分词器支持3.0.3.0版本
lucene.net中每个分词器都是一个类,同时有一个辅助类,这个辅助类完成分词的大部分逻辑。分词类以Analyzer结尾,辅助类通常以Tokenizer结尾。分类词全部继承自Analyzer类,辅助类通常也会继承某个类。首先在Analysis文件夹下建立两个类,EasyAnalyzer和EasyT...
分类:Web程序   时间:2014-07-23 22:24:47    阅读次数:268
solr4.x配置IK2012FF智能分词+同义词配置
本文配置环境:solr4.6+ IK2012ff +tomcat7在Solr4.0发布以后,官方取消了BaseTokenizerFactory接口,而直接使用Lucene Analyzer标准接口TokenizerFactory。因此IK分词器2012 FF版本也取消了org.wltea.analy...
分类:其他好文   时间:2014-07-23 20:20:15    阅读次数:288
转:ElasticSearch的安装和相关插件的安装
原文来自于:http://blog.csdn.net/whxaing2011/article/details/18237733本文主要介绍如下内容: 1、ElasticSearch的安装(Windows 和 Linux) 2、ElasticSearch插件安装 3、ElasticSearch源码集成...
分类:其他好文   时间:2014-07-23 15:10:16    阅读次数:300
mysql metadata lock
想必玩过mysql的人对Waiting for table metadata lock肯定不会陌生,一般都是进行alter操作时被堵住了,导致了我们在show processlist 时,看到线程的状态是在等metadata lock。本文会对mysql 的metadata lock做一个小小的总结...
分类:数据库   时间:2014-07-23 14:46:26    阅读次数:211
Qt同步与异步处理
1.互斥量(QMutex)         头文件声明:    #include         互斥量声明:    QMutex m_Mutex;         互斥量加锁:    m_Mutex.lock();         互斥量解锁:    m_Mutex.unlock();   2.等待条件(QWaitCondition)         头文件声明:    #inc...
分类:其他好文   时间:2014-07-23 13:20:44    阅读次数:489
RESTful API 设计最佳实践
RESTful API 设计最佳实践摘要:目前互联网上充斥着大量的关于RESTful API(为了方便,以后API和RESTful API 一个意思)如何设计的文章,然而却没有一个”万能“的设计标准:如何鉴权?API格式如何?你的API是否应该加入版本信息?背景目前互联网上充斥着大量的关于RESTf...
分类:Windows程序   时间:2014-07-23 12:33:26    阅读次数:412
中文分词技术(中文分词原理)
一、为什么要进行中文分词?词是最小的能够独立活动的有意义的语言成分,英文单词之间是以空格作为自然分界符的,而汉语是以字为基本的书写单位,词语之间没有明显的区分标记,因此,中文词语分析是中文信息处理的基础与关键。Lucene中对中文的处理是基于自动切分的单字切分,或者二元切分。除此之外,还有最大切分(...
分类:其他好文   时间:2014-07-23 12:20:06    阅读次数:263
© 2014 mamicode.com 版权所有  联系我们:gaon5@hotmail.com
迷上了代码!