一键启动集群的shell脚本

一键启动集群的shell脚本,包括HDFS HA + YARN相关所有程序,FBI00X是主机名,供大家参考:

#!/bin/bash
echo "-------------------------Step1----------------------------"

echo "Now,starting Zookeeper."
ssh FBI001 $ZOOKEEPER_HOME/bin/zkServer.sh start
ssh FBI002 $ZOOKEEPER_HOME/bin/zkServer.sh start
ssh FBI003 $ZOOKEEPER_HOME/bin/zkServer.sh start

ssh FBI001 $ZOOKEEPER_HOME/bin/zkServer.sh status
ssh FBI002 $ZOOKEEPER_HOME/bin/zkServer.sh status
ssh FBI003 $ZOOKEEPER_HOME/bin/zkServer.sh status
echo "Now,Zookeeper is started."

echo "-------------------------Step2----------------------------"

echo "Now,starting ZKFC."
ssh FBI001 $HADOOP_HOME/sbin/hadoop-daemon.sh start zkfc
ssh FBI002 $HADOOP_HOME/sbin/hadoop-daemon.sh start zkfc
echo "Now,ZKFC started."

echo "-------------------------Step3----------------------------"

echo "Now,starting JN."
ssh FBI001 $HADOOP_HOME/sbin/hadoop-daemon.sh start journalnode
ssh FBI002 $HADOOP_HOME/sbin/hadoop-daemon.sh start journalnode
ssh FBI003 $HADOOP_HOME/sbin/hadoop-daemon.sh start journalnode
echo "Now,JN started."

echo "-------------------------Step4----------------------------"

echo "Now,starting Active,Standby NN."
ssh FBI001 $HADOOP_HOME/sbin/hadoop-daemon.sh start namenode
ssh FBI002 $HADOOP_HOME/sbin/hadoop-daemon.sh start namenode
echo "Now,Active,Standby NN started."

echo "-------------------------Step5----------------------------"

echo "Now,starting DataNodes."
ssh FBI001 $HADOOP_HOME/sbin/hadoop-daemons.sh start datanode
echo "Now,DataNodes started."

echo "-------------------------Step6----------------------------"

echo "Now,starting YARN."
ssh FBI003 $HADOOP_HOME/sbin/start-yarn.sh
echo "Now,YARN started."

echo "-------------------------Step7----------------------------"

echo "Now,starting MR JobHistory Server."
ssh FBI004 $HADOOP_HOME/sbin/mr-jobhistory-daemon.sh start historyserver
echo "Now,MR JobHistory Server started."

本栏目更多精彩内容:http://www.bianceng.cnhttp://www.bianceng.cn/webkf/tools/

以上是小编为您精心准备的的内容,在的博客、问答、公众号、人物、课程等栏目也有的相关内容,欢迎继续使用右上角搜索按钮进行搜索ssh
, zookeeper
, echo
, hadoop集群
, hive zookeeper
, start
, hadoop 启动
, linux hadoop ssh
, 集群java需求zookeeper
, zkfc
, 脚本集群hadoop
, linux发布zookeeper
, zookeeper 无法正常启动
Now
shell 一键安装脚本、一键加密shell脚本、redis 集群启动脚本、weblogic集群启动脚本、hadoop集群启动脚本,以便于您获取更多的相关知识。

时间: 2024-11-02 07:12:03

一键启动集群的shell脚本的相关文章

SureHA集群添加镜像磁盘资源后无法启动集群的解决方法

SureHA集群添加镜像磁盘资源后无法启动集群,如下图:     解决方案: 添加镜像磁盘资源需要手动启动镜像代理,如下图,随后可以正常启动集群,或者直接重启2节点,启动后镜像代理可以正常启动.    

一键备份gitolite服务器的Shell脚本_linux shell

运行一次就能够把gitolite服务器上的仓库备份到本地. 第一次运行会创建远程仓库的本地镜像, 以后每次运行会把本地镜像更新. 本程序只支持 ssh方式 其他的git server貌似不会在 ssh git@xxx 的时候返回repo列表, 所以只能手动备份. #!/bin/sh server=serv_addr root_dir=`pwd` echo "whill back in dir: ${root_dir}" ssh "git@${server}" | a

分享一段一键编译安装gcc的shell脚本代码

今天看到一篇文章,作者通过一个shell脚本和一个Makefile,可以自动下载需要的所有安装包并且编译gcc:  代码如下 复制代码 $ # Download the scripts using wget. $ mkdir /opt/gcc-4.9.2 $ cd /opt/gcc-4.9.2 $ wget http://projects.joelinoff.com/gcc-4.9.2/bld.sh $ wget http://projects.joelinoff.com/gcc-4.9.2/M

启动Java应用的Shell脚本

对于Java应用程序(非web应用),在部署后,常常需要一个启动脚本来加载一些第三方的jar包,并启动应用. 对于java应用程序,我一般喜欢将程序的目录结构写成如下的方式: myapp |----lib |----bin |----packages 一些配置文件和属性文件 一个startup.sh.或bat启动脚本 其中,packages是程序的根包.其中有子包和class文件等. 在包中,有一个Main.calss的类,这个作为程序的入口. 下面给出一个最一般的写法: startup.sh

发布MySQL集群自动安装脚本1.0!

mysql|脚本|自动安装 经过几天的测试,终于可以发布了! 1. 在MySQL源代码目录下新建脚本 install.sh,把下面的代码添加到这个脚本中: #!/bin/bash####################################################### Title: MySQL 4.1 Cluster Installation Script #### Version: 1.0 #### Date: 2004-11-11 #### Author: yipsilo

Ubuntu、Linux Mint一键安装Chrome浏览器的Shell脚本分享_linux shell

把下面的脚本保存为xxx.sh,然后 sudo sh xxx.sh 复制代码 代码如下: wget -q -O - https://dl-ssl.google.com/linux/linux_signing_key.pub | sudo apt-key add - sudo sh -c 'echo "deb http://dl.google.com/linux/chrome/deb/ stable main" >> /etc/apt/sources.list.d/googl

Linux高可用(HA)之MySQL多主一从+Keepalived跨机房集群部署

添加host解析.时间同步和ssh互信(注:这里的做ssh互信的时候使用到一个脚本借助expect实现了面交互操作了) [root@DS-CentOS51 ~]# echo "172.16.0.51 mysql-master01 > 172.16.0.60 mysql-master02 > 172.16.0.63 mysql-slave01 > 172.16.0.69 mysql-slave02" >> /etc/hosts [root@DS-CentOS

《Hadoop与大数据挖掘》一2.2.4 动手实践:一键式Hadoop集群启动关闭

2.2.4 动手实践:一键式Hadoop集群启动关闭 在使用Hadoop的过程中,如果每次启动Hadoop集群都需要分别执行3次命令才能启动集群,那么每次集群启动或关闭都将很繁琐.为了减少这种操作,可以编写一个脚本来控制Hadoop集群的启动与关闭,所以本实验就是完成这个功能. 实验步骤: 1)学习Linux shell命令相关代码: 2)了解Hadoop集群启动关闭流程: 3)编写集群启动关闭shell脚本: 4)测试运行.

阿里云一键部署 Spark 分布式集群

Apache Spark是专为大规模数据处理而设计的快速通用的计算引擎,可以完成各种各样的运算,包括 SQL 查询.文本处理.机器学习等,而在 Spark 出现之前,我们一般需要学习各种各样的引擎来分别处理这些需求.本文主要目的是为大家提供一种非常简单的方法,在阿里云上部署Spark集群. 通过<阿里云ROS资源编排服务>,将VPC.NAT Gateway.ECS创建,Hadoop和Spark部署过程自动化,使大家能够非常方便地部署一个Spark集群.本文创建的Spark集群包含三个节点:ma