java lucene做搜索时 庖丁分词器报异常的问题

问题描述

net.paoding.analysis.exception.PaodingAnalysisException:dichomeshouldnotbeafile,butadirectory!我把DIC文件夹放在了项目SRC下配置文件中也写了paoding.dic.home=classpath:dicpaoding.dic.home.config-fisrt=this从网上搜查有人说是需要修改一下Paoding中的代码了。找到PaodingMaker.java的setDicHomeProperties方法,修改FiledicHomeFile=getFile(dicHome);为FiledicHomeFile2=getFile(dicHome);Stringpath="";try{path=URLDecoder.decode(dicHomeFile2.getPath(),"UTF-8");}catch(UnsupportedEncodingExceptione){e.printStackTrace();}FiledicHomeFile=newFile(path本文来自CSDN博客,转载请标明出处:http://blog.csdn.net/Yahuvi/archive/2010/08/22/5830425.aspx我不明白怎么修改jar包哪位可以告诉我这个异常怎么解决

解决方案

解决方案二:
怎么没人知道。。。。。。
解决方案三:
这个异常不清楚,lucene底层的我还没深入到那个程度,改jar包么,像解压压缩文件那个解压了,把你要修改的class反编译下修改后重新编译打包就行了

时间: 2024-09-15 02:46:27

java lucene做搜索时 庖丁分词器报异常的问题的相关文章

询问 java 操作 IBM mQ时控制端打印的异常信息屏蔽方法

问题描述 Java操作IBMMQ时,比如get()消息时,队列中如果没有消息,会在控制端报异常,请问有什么办法可以屏蔽之,try{}catch(){}不管用

Lucene 3.6.2入门(4) 中文分词器

package com.jadyer.lucene; import java.io.IOException; import java.io.StringReader; import org.apache.lucene.analysis.Analyzer; import org.apache.lucene.analysis.SimpleAnalyzer; import org.apache.lucene.analysis.StopAnalyzer; import org.apache.lucene

lucnene多条件搜索-lucene多条件搜索时or与and问题

问题描述 lucene多条件搜索时or与and问题 lucene版本:3.6 分词器:ansj_seg-master 在lucene多条件搜索时,想根据两个字段去做搜索,创建的Query如下所示 Analyzer analyzer = new AnsjAnalysis(); String paramsStr[] = new String[] { "CA0000001", "特惠" }; String keys[] = new String[] {"code

Lucene5学习之自定义同义词分词器简单示例

  同义词功能在全文搜索时的意义,大家应该都懂的.今天中文我就试着写了一个同义词分词的示例demo,其实主要代码还是参考Lucene in Action 这本英文版书籍的随书代码,只不过Lucenen in Action书里的示例代码目前最新版只支持到Lucene4.x,对于Lucene5.x,代码需要稍作修改,下面是基于Lucene5.x的自定义同义词分词器demo:   Java代码   package com.yida.framework.lucene5.analyzer.synonym;

有没有一种分词器 ,可以配置split形式分词

问题描述 现在我用的IK分词器,现在有一个字段存储是这样的 我爱java|lucene学习|CC|DD如果直接分词,则会分成 我爱 java lucene 学习 CC DD而我想单独这个字段只使用split形式的分词, 以 | 符号分词,分成 我爱java 一个词, lucene学习一个词有没有这样的形式的 问题补充:fire_wang 写道 解决方案 我已经按照你想要的切词方式,写了一个,你可以到这里下载.http://lzj0470.iteye.com/blog/1259070解决方案二:L

如何在Elasticsearch中安装中文分词器(IK+pinyin)

如果直接使用Elasticsearch的朋友在处理中文内容的搜索时,肯定会遇到很尴尬的问题--中文词语被分成了一个一个的汉字,当用Kibana作图的时候,按照term来分组,结果一个汉字被分成了一组. 这是因为使用了Elasticsearch中默认的标准分词器,这个分词器在处理中文的时候会把中文单词切分成一个一个的汉字,因此引入中文的分词器就能解决这个问题. 本篇文章按照下面的内容进行描述: 分词器的作用 安装IK 简单的测试 模拟测试 安装elasticsearch-analysis-piny

swing-java如何做视频或音乐播放器

问题描述 java如何做视频或音乐播放器 java有什么类是用来解码视频或者音乐的.想做个视频播放器.有什么现成的类使用么. 解决方案 MediaPlayer 解决方案二: Vitamiohttp://pan.baidu.com/share/link?shareid=2421751472&uk=423516888 解决方案三: Android中是使用android.media.MediaPlayer:Java中应该有类似的类,但我没有用过.

Lucene 3.6.2入门(5) 自定义停用词分词器和同义词分词器

首先是用于显示分词信息的HelloCustomAnalyzer.java package com.jadyer.lucene; import java.io.IOException; import java.io.StringReader; import org.apache.lucene.analysis.Analyzer; import org.apache.lucene.analysis.TokenStream; import org.apache.lucene.analysis.toke

如何开发自己的搜索帝国之安装ik分词器

 Elasticsearch默认提供的分词器,会把每个汉字分开,而不是我们想要的根据关键词来分词,我是中国人 不能简单的分成一个个字,我们更希望 "中国人","中国","我"这样的分词,这样我们就需要安装中文分词插件,ik就是实现这个功能的. elasticsearch-analysis-ik 是一款中文的分词插件,支持自定义词库. 现在开始安装ik分词器,安装之前,先说明一些变化: 之前可以在node节点上配置index默认的分词器,如果是多节