停止Hadoop或HBase集群的脚本

#!/bin/sh
#echo "waring"
#read NAME #等待用户输入并把输入的值付给NAME
NAME=$1 #将脚本第一个参数赋给NAME
#引用变量时加上"{}",是个好习惯,利于shell辨别变量边界
if [ -z ${NAME} ] ; then #执行脚本没有输入参数,默认关闭hadoop
	stop-all.sh
elif [ ${NAME} = "hadoop" ]; then #如果NAME中的值为"Hadoop",就只关闭Hadoop集群
	echo "shutdown hadoop cluster"
	stop-all.sh
elif [ ${NAME} = "hbase" ] ; then #停止HBase集群
	echo "shutdown hbase on hadoop1"
	ssh -t -p 22 hadoop1 "/usr/local/hbase/bin/stop-hbase.sh" #向远程机器发送命令,停止HBase集群
	NUM=1
	while [ ${NUM} -lt 4 ]
	do
		echo "shutdown hadoop${NUM}'s zkServer"
		ssh -t -p 22 hadoop${NUM} "/usr/local/zk/bin/zkServer.sh stop" #向远程机器发送命令,停止HBase集群后停止ZooKeeper集群
		NUM=$[${NUM}+1]
	done
	echo "shutdwon hadoop cluster"
	stop-all.sh
else  #参数输入错误,或者大小写不合适
	echo "error"

fi #结束if命令

脚本简单的实现了Hadoop集群和HBase集群的停止,并没有在细节和严谨性方面做严格的修改。只为了在停止集群时只需要简单的一步即可而不需要再每台机器上操作命令,减少了操作上的麻烦。

时间: 2024-11-14 14:41:58

停止Hadoop或HBase集群的脚本的相关文章

Ganglia监控Hadoop与HBase集群

以下基于上篇Hadoop2.6与HBase1.0集群架构: http://lizhenliang.blog.51cto.com/7876557/1665130 http://lizhenliang.blog.51cto.com/7876557/1661354  Hadoop集群基本部署完成,接下来就需要有一个监控系统,能及时发现性能瓶颈,给故障排除提供有力依据.监控hadoop集群系统好用的比较少,自身感觉ambari比较好用,但不能监控已有的集群环境,挺悲催的.ganglia在网上看到原生支持

搭建Hadoop与HBase集群的反思与总结

这几天应老师要求,在三台机器上搭建Hadoop环境与http://www.aliyun.com/zixun/aggregation/13713.html">HBase环境,其中遇到不少问题,直到今日才基本运行成功.此处不讨论配置细节,只是把需要注意的问题列出作参考. 三台机器时间同步,防火墙(iptables)关闭 设置hostname.对于Debian,修改/etc/hostname;对于centos,修改/etc/sysconfig/network. 设置/etc/hosts文件.删除

启动Hadoop集群和HBase集群脚本

#!/bin/sh #echo "waring" #read NAME #等待用户输入并把输入的值付给NAME NAME=$1 #将脚本第一个参数赋给NAME #引用变量时加上"{}",是个好习惯,利于shell辨别变量边界 if [ -z ${NAME} ] ;then #默认如果为空,hadoop start echo "1.start hadoop on ${HOSTNAME}" start-all.sh elif [ "${NA

《HBase企业应用开发实战》—— 2.5 停止HBase集群

2.5 停止HBase集群 通过HBase提供的脚本可以停止一个正在运行中的集群,命令如下: bin/stop-hbase.sh stopping hbase............... 读者会在屏幕上看到类似上面的输出信息,请耐心等待,当HMaster和所有RegionServer进程正常退出后集群将停止服务.

高可用Hadoop平台-HBase集群搭建

1.概述 今天补充一篇HBase集群的搭建,这个是高可用系列遗漏的一篇博客,今天抽时间补上,今天给大家介绍的主要内容目录如下所示: 基础软件的准备 HBase介绍 HBase集群搭建 单点问题验证 截图预览 那么,接下来我们开始今天的HBase集群搭建学习. 2.基础软件的准备 由于HBase的数据是存放在HDFS上的,所以我们在使用HBase时,确保Hadoop集群已搭建完成,并运行良好.若是为搭建Hadoop集群,请参考我写的<配置高可用的Hadoop平台>来完成Hadoop平台的搭建.另

hadoop hbase集群断电数据块被破坏无法启动

集群机器意外断电重启,导致hbase 无法正常启动,抛出reflect invocation异常,可能是正在执行的插入或合并等操作进行到一半时中断,导致部分数据文件不完整格式不正确或在hdfs上block块不完整. 在网上查了一下相关资料,怀疑有可能是关闭前一些未提交的修改所存放的log文件数据写入一半文件不完整,故把hbase.hlog.split.skip.errors改成true进行尝试. 关于这个参数作用的解释: 当服务器奔溃,重启的时候,会有个回放的过程,把/hbase/WAL/下面记

HBase集群管理

通过之前文章的描述,我们已经有能力设计并部署搭建HBase集群了 当我们的HBase集群开始运行的时候,新的挑战又来了 例如,我们可能会遇到在集群运行的时候添加或者删除节点 又或者需要拷贝/备份整个集群的数据等等 如何在集群运行的时候以最小的代价来执行这些操作呢? 下面总结一下HBase集群的相关运维和管理知识点 运维任务 添加/删除节点 在HBase中动态添加/删除节点非常简单,只需要一些命令操作即可,HBase会自动帮你处理节点上下线需要做的事情 添加节点 1.修改conf目录下的regio

使用Docker在本地搭建hadoop,spark集群

本环境使用的单个宿主主机,而不是跨主机集群,本spark集群环境存在的意义可能在于便于本地开发测试使用,非常轻量级和便捷.这个部署过程,最好在之前有过一定的hadoop,spark集群部署经验的基础,本文重点在于docker相关的操作,至于hadoop和spark集群的部署,极力推荐这两个网页: Hadoop集群:http://blog.csdn.net/stark_sum ... 24279. Spark集群:http://blog.csdn.net/stark_sum ... 58081 主

HBase集群中RegionServer崩溃快速恢复探索

摘 要:本文 主要介绍了HBaseRegionServer与Zookeeper间的交互过程,阐述RegionServer崩溃后的恢复机制,并在此基础上提出了几点优化的恢复措施.优化后的恢复措施大大缩短了RegionServer崩溃后的故障恢复时间和业务中断时间,从而提高了HBase集群的稳定性和可靠性. 0 引言 随着互联网和通信行业的迅猛发展,积聚的各种数据呈急剧增长态势.这些海量数据既蕴含着丰富的信息和资源,又面临着信息有效管理和提取的难题.云计算是分布式处理.并行处理和网格计算的发展,可以