Elasticsearch上手——结合Kibana的安装配置

安装Elasticsearch

根据文档的说明,安装过程十分简单。系统环境:CentOS 7

  1. 下载

    wget https://artifacts.elastic.co/downloads/elasticsearch/elasticsearch-5.1.2.tar.gz
  2. 解压
    tar xzvf elasticsearch-5.1.2.tar.gz
    mv elasticsearch-5.1.2 elasticsearch
  3. 配置
    Elasticsearch在使用之前需要几个修改几个配置项,在elasticsearch/config目录下有两个文件elasticsearch.yml和jvm.options。
    elasticsearch.yml:

    cluster.name: elasticsearch-cluster
    node.name: node-1
    path.data: /home/dawoo/elasticsearch/data
    path.logs: /home/dawoo/elasticsearch/logs

    最后两项路径的配置,需要在elasticsearch目录下创建data和logs两个子目录。
    jvm.options:
    主要修改jvm运行是的heapsize,建议的大小为有物理内存的一半,由于改机还运行其他服务,暂时设为4G:

    -Xms4g
    -Xmx4g
  4. 启动
    cd elasticsearch/bin
    ./elasticsearch

安装Kibana

Kibana是配合Elasticsearch的一个数据分析和可视化的开源软件平台,通过它可以很方便地创建索引、索引文档、搜索文档,它还提供很多的图表形式,对底层的数据进行可视化。

  1. 安装
    和Elasticsearch,安装过程就是下载和解压:

    wget wget https://artifacts.elastic.co/downloads/kibana/kibana-5.1.2-linux-x86_64.tar.gz
    tar xzvf kibana-5.1.2-linux-x86_64.tar.gz
    mv kibana-5.1.2-linux-x86_64 kibana 
  2. 配置
    前端是使用Nginx做转发,所以先配置nginx:

    /etc/nginx/nginx.conf
    
    location /app/kibana/ {
        auth_basic           "Please input username and password.";
        auth_basic_user_file /etc/nginx/default.d/passwd;
    
        proxy_pass            http://localhost:5601/;
        proxy_set_header      Host      $host;
        #proxy_set_header     X-Real-IP $remote_addr;
    }

    由于kibana是内部管理使用,因此这里增加了简单的密码限制。保存后,重新启动nginx

    systemctl restart nginx.service

    修改Kibana的配置,只需更改server.basePath的值即可:

    server.basePath: "/app/kibana"
  3. 启动
    命令行启动

    cd kibana/bin
    ./kibana

    在浏览器访问,应该可以看到:

  4. 更进一步
    直接kibana启动会发现,一旦窗口关闭进程就会自动结束。那么如何解决问题呢?这里提供两个思路:

    • 建立一个脚本,通过nohup启动,可以将输出重定向到一个文件中
    • 安装screen(yum -y install screen),在screen中启动(./kibana &),每次进入screen都可以看到输出
时间: 2024-11-09 05:56:31

Elasticsearch上手——结合Kibana的安装配置的相关文章

Manage Spring Boot Logs with Elasticsearch, Logstash and Kibana

下载地址:https://www.elastic.co/downloads   When time comes to deploy a new project, one often overlooked aspect is log management. ELK stack (Elasticsearch, Logstash, Kibana) is, among other things, a powerful and freely available log management solutio

ElasticSearch-2.0.0集群安装配置与API使用实践

ElasticSearch是基于全文搜索引擎库Lucene构建的分布式搜索引擎,我们可以直接使用ElasticSearch实现分布式搜索系统的搭建与使用,都知道,Lucene只是一个搜索框架,它提供了搜索引擎操作的基本API,如果要实现一个能够使用的搜索引擎系统,还需要自己基于Lucene的API去实现,工作量很大,而且还需要很好地掌握Lucene的底层实现原理. ElasticSearch是一个完整的分布式搜索引擎系统,它的一些基本特性包括如下: 全文检索 提供插件机制,可以共享重用插件的功能

ES集群安装配置

ElasticSearch是一个开源搜索服务框架,它已经成为搜索解决方案领域的重要成员.ElasticSearch还经常被用作文档数据库,这主要得益于它的分布式特性和实时搜索能力,另外,ElasticSearch支持越来越多的聚合功能,而且和Yarn.Hadoop.Hive.Pig.Spark.Flume等大数据处理框架的兼容性越来越好.我主要是想调研一下看是否能将它用于实时的数据搜索统计.以及实时OLAP的业务场景之上.这里先记录一下ElasticSearch集群的安装配置. ElasticS

linux LyX中文编辑环境安装配置指南-TeX可视化工具

TeX可以说是国际上排版的标准,尤其是论文.书籍之类,对公式的表现比MS办公系列强的太多,格式异常优美,但是由于其比较复杂的命令,非可视化编辑,所以使得入门门槛较高,所以出现了LaTeX这样的命令宏包,但是对于熟悉MS系列的人来说,还是复杂了些,有没有可视化的编辑工具呢?答案是肯定的,今天介绍这个LyX就是所见即所得的工具. 如何安装配置使用呢?下面就是用LyX生成的Html格式文档,呵呵,附生成的Pdf截图一张 =========================================

Redis 对比 Memcached 并在 CentOS 下进行安装配置详解_Redis

Redis 是一个开源.支持网络.基于内存.键值对的 Key-Value 数据库,本篇文章主要介绍了Redis 对比 Memcached 并在 CentOS 下进行安装配置详解,有兴趣的可以了解一下. 了解一下 Redis Redis 是一个开源.支持网络.基于内存.键值对的 Key-Value 数据库,使用 ANSI C 编写,并提供多种语言的 API ,它几乎没有上手难度,只需要几分钟我们就能完成安装工作,并让它开始与应用程序顺畅协作.换句话来说,只需投入一小部分时间与精力,大家就能获得立竿

安装配置bugzilla笔记

因为自己在安装配置的时候走了些弯路,所以一方面自己提个醒,另一方面可以让有这方面需要的朋友做个参考 bugzilla是一个可以发布bug以及跟踪报告bug进展情况的开源软件,有关的官方文档可以查看:http://www.bugzilla.org/docs/ 本人是在RH9上安装配置成功bugzilla-2.18rc3的,事先也成功安装配置过2.16.7,后来发现在2.18中加入了图表的功能,觉得蛮有意思的,所以升级了一下.在安装前先确定自己机器上一些软件版本的情况:perl(5.6 or abo

Winodws下IIS/Apache+PHP+MySQL的安装配置

apache|iis|mysql 我写过的教程不多,而且大部分都是来源于别人的教程,不过,这里所介绍的,都是融入我所总结的经验.--引言 PHP的执行效率是有目共睹的,这也是我喜欢它的原因之一,和它称为绝妙搭档的Mysql以及Apache想融合,不能不惊叹其效率了.PHP更新也很快,这里列举了目前最新版本PHP4.3.2RC4(几乎没有BUG了,估计写完这篇不久后正式版就出了),和最新版本的Mysql4.0.13的安装过程. PHP的安装文件可以直接到 http://www.php.net/ 下

Oozie-3.3.2安装配置运行实践

Oozie是一个开源的工作流调度系统,它能够管理逻辑复杂的多个Hadoop作业,按照指定的顺序将其协同运行起来.例如,我们可能有这样一个需求,某个业务系统每天产生20G原始数据,我们每天都要对其进行处理,处理步骤如下所示: 通过Hadoop先将原始数据同步到HDFS上: 借助MapReduce计算框架对原始数据进行转换,生成的数据以分区表的形式存储到多张Hive表中: 需要对Hive中多个表的数据进行JOIN处理,得到一个明细数据Hive大表: 将明细数据进行复杂的统计分析,得到排序后的报表信息

Hue安装配置实践

Hue是一个开源的Apache Hadoop UI系统,最早是由Cloudera Desktop演化而来,由Cloudera贡献给开源社区,它是基于Python Web框架Django实现的.通过使用Hue我们可以在浏览器端的Web控制台上与Hadoop集群进行交互来分析处理数据,例如操作HDFS上的数据,运行MapReduce Job等等.很早以前就听说过Hue的便利与强大,一直没能亲自尝试使用,下面先通过官网给出的特性,通过翻译原文简单了解一下Hue所支持的功能特性集合: 默认基于轻量级sq