elasticsearch-Elasticsearch 安装完IK分词插件后使用curl命令创建索引出错,如题。

问题描述

Elasticsearch 安装完IK分词插件后使用curl命令创建索引出错,如题。

我配置完分词插件后输入了以下创建索引的命令。
curl -XPUT http://localhost:9200/index
但是却出现了下面的错误。
$ curl -XPUT http://localhost:9200/index
% Total % Received % Xferd Average Speed Time Time Time Current
Dload Upload Total Spent Left Speed
100 239 100 239 0 0 1397 0 --:--:-- --:--:-- --:--:-- 1397{"error":"IndexCreationException[[index] failed to create index]; nested: NoClassDefFoundError[org/apache/http/client/ClientProtocolException]; nested: ClassNotFoundException[org.apache.http.client.ClientProtocolException]; ","status":500}

希望大神为我点破迷津。感激不尽啊。
令附上我配置分词插件的流程:
http://blog.csdn.net/liuzhenfeng/article/details/39404435

我的ES版本是1.3.2,IK是1.2.8

解决方案

我也遇到了,解决了,我写在博客上了http://blog.mreald.com/160

主要是包拷错了。

解决方案二:

elasticsearch lib 文件夹中 引入httpclient-4.3.5.jar httpcore-4.3.2.jar

解决方案三:

elasticsearch lib 文件夹中 引入httpclient-4.3.5.jar httpcore-4.3.2.jar

解决方案四:

请问解决了吗?我也遇到了这个问题!唉……

解决方案五:

请问解决了吗?我也碰到了。

解决方案六:

谢谢林里灰羊, 搞定!

时间: 2024-08-31 10:31:20

elasticsearch-Elasticsearch 安装完IK分词插件后使用curl命令创建索引出错,如题。的相关文章

ElasticSearch 安装 ik 分词插件

       在搜索领域,中文分词一直都是难题.经过很多大牛的不懈努力,还是出现了一些很不错的中文分词器,比如本文提到的IK.本文主要基于ES,安装ik分词插件.        一.IK简介     IK Analyzer是一个开源的,基于java语言开发的轻量级的中文分词工具包.从2006年12月推出1.0版开始, IKAnalyzer已经推出了4个大版本.最初,它是以开源项目Luence为应用主体的,结合词典分词和文法分析算法的中文分词组件.从3.0版本开 始,IK发展为面向Java的公用分

python多媒体编程 我在安装完PyOpenGL3.0.1后,运行根据书里面写的一个脚本,却出错

问题描述 python多媒体编程 我在安装完PyOpenGL3.0.1后,运行根据书里面写的一个脚本,却出错 python多媒体编程 我在安装完PyOpenGL3.0.1后,运行根据书里面写的一个脚本,却出错 解决方案 这个就是ctypes没找到,你尝试把环境变量什么的好好配置一下

基于 Ansj 的 elasticsearch 2.3.1 中文分词插件

前言 这是一个elasticsearch的中文分词插件,基于Ansj中文分词.发起者Onni大神. 2.3.1插件安装 进入Elasticsearch目录运行如下命令 进入es目录执行如下命令 ./bin/plugin install http://maven.nlpcn.org/org/ansj/elasticsearch-analysis-ansj/2.3.1/elasticsearch-analysis-ansj-2.3.1-release.zip 更新内容 elasticsearch更新

安装完 myeclipse6.0.1后运行出现 一个错误,并提示我看日志文件,日志文件如下: 该怎么解决啊??问题出在哪里?

问题描述 !SESSION2010-04-1922:12:43.328-----------------------------------------------eclipse.buildId=M20070921-1145java.version=1.6.0_10-rc2java.vendor=SunMicrosystemsInc.BootLoaderconstants:OS=win32,ARCH=x86,WS=win32,NL=en_CNCommand-linearguments:-oswi

安装完最小化 RHEL/CentOS 7 后需要做的 30 件事情(一)

安装完最小化 RHEL/CentOS 7 后需要做的 30 件事情(一) CentOS 是一个工业标准的 Linux 发行版,是红帽企业版 Linux 的衍生版本.你安装完后马上就可以使用,但是为了更好地使用你的系统,你需要进行一些升级.安装新的软件包.配置特定服务和应用程序等操作. 这篇文章介绍了 "安装完 RHEL/CentOS 7 后需要做的 30 件事情".阅读帖子的时候请先完成 RHEL/CentOS 最小化安装,这是首选的企业和生产环境.如果还没有,你可以按照下面的指南,它

如何在Elasticsearch中安装中文分词器(IK+pinyin)

如果直接使用Elasticsearch的朋友在处理中文内容的搜索时,肯定会遇到很尴尬的问题--中文词语被分成了一个一个的汉字,当用Kibana作图的时候,按照term来分组,结果一个汉字被分成了一组. 这是因为使用了Elasticsearch中默认的标准分词器,这个分词器在处理中文的时候会把中文单词切分成一个一个的汉字,因此引入中文的分词器就能解决这个问题. 本篇文章按照下面的内容进行描述: 分词器的作用 安装IK 简单的测试 模拟测试 安装elasticsearch-analysis-piny

基于 IKAnalyzer 实现 Elasticsearch 中文分词插件

虽然Elasticsearch有原生的中文插件elasticsearch-analysis-smartcn(实际上是lucence的org.apache.lucene.analysis.cn.smart.SmartChineseAnalyzer),但它似乎没能满足我的要求.比如我希望对文档中的"林夕"不分词(就是不要把它当成"林","夕"两个字索引),smartcn没法做到. 然后我找到了IK,以及elasticsearch-analysis-i

elasticsearch 2.3.4 java API 连接,ik分词器,设置集群节点,创建index,mapping的几种方式

1.默认集群连接 Client client = TransportClient.builder().build() .addTransportAddress(new InetSocketTransportAddress(InetAddress.getByName("localhost"), 9300)); 2.自定义集群连接 Settings settings = Settings.settingsBuilder().put("cluster.name", &qu

如何开发自己的搜索帝国之安装ik分词器

 Elasticsearch默认提供的分词器,会把每个汉字分开,而不是我们想要的根据关键词来分词,我是中国人 不能简单的分成一个个字,我们更希望 "中国人","中国","我"这样的分词,这样我们就需要安装中文分词插件,ik就是实现这个功能的. elasticsearch-analysis-ik 是一款中文的分词插件,支持自定义词库. 现在开始安装ik分词器,安装之前,先说明一些变化: 之前可以在node节点上配置index默认的分词器,如果是多节