Hadoop On Demand管理指南

概述

Hadoop On Demand (HOD)是一个能在一个共享集群上供应和管理相互独立的Hadoop Map/Reduce和Hadoop分布式文件系统(HDFS)实例的系统。它能让管理员和用户轻松地快速搭建和使用hadoop。HOD对Hadoop的开发人员和测试人员也非常有用,他们可以通过HOD共享一个物理集群来测试各自不同的Hadoop版本。

HOD依赖资源管理器(RM)来分配节点,这些节点被用来在之上运行hadoop实例。目前,HOD采用的是Torque资源管理器。

基本的HOD系统架构包含的下列组件:

一个资源管理器(可能同时附带一个调度程序) 各种HOD的组件 Hadoop Map/Reduce和HDFS守护进程

通过与以上组件交互,HOD在给定的集群上供应和维护Hadoop Map/Reduce实例,或者HDFS实例。集群中的节点可看作由两组节点构成:

提交节点(Submit nodes):用户通过HOD客户端在这些节点上申请集群,之后通过Hadoop客户端提交Hadoop作业。 计算节点(Compute nodes):利用资源管理器,HOD组件在这些节点上运行以供应Hadoop守护进程。之后,Hadoop作业在这些节点上运行。

下面是对申请集群及在之上运行作业所需操作步骤的简要描述。

用户在提交节点上用HOD客户端分配所需数目节点的集群,在上面供应Hadoop。 HOD客户端利用资源管理器接口(在Torque中是qsub)提交一个被称为RingMaster的HOD进程作为一个资源管理器作业,申请理想数目的节点。这个作业被提交到资源管理器的中央服务器上(在Torque中叫pbs_server)。 在计算节点上,资源管理器的从(slave)守护程序(Torque中的pbs_moms)接受并处理中央服务器(Torque中的pbs_server)分配的作业。RingMaster进程在其中一个计算节点(Torque中的mother superior)上开始运行。 之后,Ringmaster通过资源管理器的另外一个接口(在Torque中是pbsdsh)在所有分配到的计算节点上运行第二个HOD组件HodRing,即分布式任务。 HodRing初始化之后会与RingMaster通信获取Hadoop指令,并遵照执行。一旦Hadoop的命令开始启动,它们会向RingMaster登记,提供关于守护进程的信息。 Hadoop实例所需的配置文件全部由HOD自己生成,有一些来自于用户在配置文件设置的选项。 HOD客户端保持和RingMaster的通信,找出JobTracker和HDFS守护进程的位置所在。

之后的文档会讲述如何在一个物理集群的节点上安装HOD。

先决条件

要使用HOD,你的系统应包含下列的硬件和软件

操作系统: HOD目前在RHEL4上测试通过。
节点:HOD至少需要3个由资源管理器配置的节点。

软件

在使用HOD之前,以下组件必须被安装到所有节点上:

Torque:资源管理器 Python:HOD要求Python 2.5.1

下列组件是可选的,你可以安装以获取HOD更好的功能:

Twisted Python:这个可以用来提升HOD的可扩展性。如果检测到这个模块已安装,HOD就用它,否则就使用默认的模块。 Hadoop:HOD能自动将Hadoop分发到集群的所有节点上。不过,如果Hadoop在所有节点上已经可用,HOD也可以使用已经安装好的Hadoop。HOD目前支持Hadoop 0.15和其后续版本。

注释: HOD的配置需要以上这些组件的安装位置在集群所有节点上保持一致。如果在提交节点上的安装位置也相同,配置起来会更简单。

资源管理器

目前,HOD使用Torque资源管理器来分配节点和提交作业。Torque是一个开源的资源管理器,来自于Cluster Resources,是一个社区基于PBS项目努力的结晶。它提供对批处理作业和分散的计算节点(Compute nodes)的控制。你可以自由地从此处下载Torque。

所有torque相关的文档可以在这儿的TORQUE Resource Manager一节找到。在这里可以看到wiki文档。如果想订阅TORQUE的邮件列表或查看问题存档,访问这里。

使用带Torque的HOD:

安装Torque组件:在一个节点上(head node)安装pbs_server,所有计算节点上安装pbs_mom,所有计算节点和提交节点上安装PBS客户端。至少做最基本的配置,使Torque系统跑起来,也就是,使pbs_server能知道该和哪些机器通话。查看这里可以了解基本配置。要了解高级配置,请查看这里。 在pbs_server上创建一个作业提交队列。队列的名字和HOD的配置参数resource-manager.queue相同。Hod客户端利用此队列提交RingMaster进程作为Torque作业。 在集群的所有节点上指定一个cluster name作为property。这可以用qmgr命令做到。比如:qmgr -c "set node node properties=cluster-name"。集群名字和HOD的配置参数hod.cluster是相同的。 确保作业可以提交到节点上去。这可以通过使用qsub命令做到。比如:echo "sleep 30" | qsub -l nodes=3 安装HOD

现在资源管理器已经安装好了,我们接着下载并安装HOD。

如果你想从Hadoop tar包中获取HOD,它在'contrib'下的'hod'的根目录下。 如果你从编译源码,可以在Hadoop根目录下的运行ant tar, 生成Hadoop tar包。然后从获取HOD,参照上面。 把这个目录下的所有文件分发到集群的所有节点上。注意文件拷贝的位置应在所有节点上保持一致。 注意,编译hadoop时会创建HOD,同时会正确地设置所有HOD必须的脚本文件的权限。 配置HOD

安装HOD后你就可以配置它。为了运行HOD需要做的最小配置会在下面讲述,更多高级的配置会在HOD配置指南里面讲解。

最小配置

为运行HOD,以下的最小配置是必须要做的:

在你想要运行hod的节点上,编辑<install dir>/conf目录下的hodrc文件。这个文件包含了运行hod所必需的最少量的设置。

为这个配置文件中的定义的变量指定适合你环境的值。注意,有些变量在文件中出现了不止一次。

${JAVA_HOME}:Hadoop的Java的安装位置。Hadoop支持Sun JDK 1.5.x及以上版本。 ${CLUSTER_NAME}:集群名称,由'node property'指定,在资源管理器配置中曾提到过。 ${HADOOP_HOME}:Hadoop在计算节点和提交节点上的安装位置。 ${RM_QUEUE}:在资源管理器配置中设置的作业提交队列。 ${RM_HOME}:资源管理器在计算节点和提交节点的安装位置。

以下环境变量可能需要设置,取决于你的系统环境。在你运行HOD客户端的地方这些变量必须被定义,也必须在HOD配置文件中通过设定resource_manager.env-vars的值指定。多个变量可指定为用逗号分隔的key=value对组成的列表。

HOD_PYTHON_HOME:如果python安装在计算节点或提交节点的非默认位置,那么这个值必须设定为python的可执行文件的实际位置。 高级配置

你可以检查和修改其它配置选项来满足你的特定需要。关于HOD配置的更多信息,请参考配置指南。

运行HOD

当HOD配置好后,你就可以运行它了。更多信息请参考HOD用户指南。

支持工具和实用程序

此节描述一些可用于管理HOD部署的支持工具和应用程序。

logcondense.py - 管理日志文件

在HOD用户指南有提到,HOD可配置成将Hadoop日志上传到一个配置好的静态HDFS上。随着时间增加,日志数量会不断增长。logcondense.py可以帮助管理员清理上传到HDFS的日志文件。

运行logcondense.py

logcondense.py在hod_install_location/support文件夹下。你可以使用python去运行它,比如python logcondense.py,或者授以执行权限,直接运行logcondense.py。如果启用了权限,logcondense.py需要被有足够权限,能删除HDFS上上传目录下日志文件的用户运行。比如,在配置指南中提及过,用户可以配置将日志放在HDFS上的其主目录下。在这种情况下,你需要具有超级用户权限,才能运行logcondense.py删除所有用户主目录下的日志文件。

logcondense.py的命令行选项

logcondense.py支持以下命令行选项

短选项长选项含义例子-p--packagehadoop脚本的全路径。Hadoop的版本必须和运行HDFS的版本一致。/usr/bin/hadoop-d--days删除超过指定天数的日志文件7-c--configHadoop配置目录的路径,hadoop-site.xml存在于此目录中。hadoop-site.xml中须指明待删除日志存放的HDFS的NameNode。/home/foo/hadoop/conf-l--logs一个HDFS路径,须和log-destination-uri指定的是同一个HDFS路径,不带hdfs:// URI串,这点在配置指南中提到过。/user-n--dynamicdfs如果为true,logcondense.py除要删除Map/Reduce日志之外还需删除HDFS日志。否则,它只删除Map/Reduce日志,这也是不指定这个选项时的默认行为。这个选项对下面的情况非常有用:一个动态的HDFS由HOD供应,一个静态的HDFS用来收集日志文件 - 也许这是测试集群中一个非常普遍的使用场景。false

比如,假如要删除所有7天之前的日志文件,hadoop-site.xml存放在~/hadoop-conf下,hadoop安装于~/hadoop-0.17.0,你可以这样:

python logcondense.py -p ~/hadoop-0.17.0/bin/hadoop -d 7 -c ~/hadoop-conf -l /user

checklimits.sh - 监视资源限制

checklimits.sh是一个针对Torque/Maui环境的HOD工具(Maui集群调度器 是一个用于集群和超级计算机的开源作业调度器,来自clusterresourcces)。当新提交的作业违反或超过用户在Maui调度器里设置的限制时,checklimits.sh脚本更新torque的comment字段。它使用qstat在torque的job-list中做一次遍历确定作业是在队列中还是已完成,运行Maui工具checkjob检查每一个作业是否违反用户限制设定,之后运行torque的qalter工具更新作业的'comment'的属性。当前,它把那些违反限制的作业的comment的值更新为User-limits exceeded. Requested:([0-9]*) Used:([0-9]*) MaxLimit:([0-9]*)。之后,HOD根据这个注释内容做出相应处理。

运行checklimits.sh

checklimits.sh可以在hod_install_location/support目录下下找到。在具有得执行权限后,这个shell脚本可以直接通过sh checklimits.sh 或者./checklimits.sh运行。这个工具运行的机器上应有Torque和Maui的二进制运行文件,并且这些文件要在这个shell脚本进程的路径中。为了更新不同用户作业的comment值,这个工具必须以torque的管理员权限运行。这个工具必须按照一定时间间隔重复运行,来保证更新job的约束条件,比如可以通过cron。请注意,这个脚本中用到的资源管理器和调度器命令运行代价可能会比价大,所以最好不要在没有sleeping的紧凑循环中运行。

verify-account - 用于核实用户提交作业所使用的帐号的脚本

生产系统一般使用帐号系统来对使用共享资源的用户收费。HOD支持一个叫resource_manager.pbs-account的参数,用户可以通过这个参数来指定提交作业时使用的帐号。核实这个帐户在帐号管理系统中的有效性是有必要的。脚本hod-install-dir/bin/verify-account提供了一种机制让用户插入自定义脚本来实现这个核实过程。

在HOD中集成verify-account

在分配集群之前,HOD运行verify-account脚本,将resource_manager.pbs-account的值作为参数传递给用户自定义脚本来完成用户的确认。系统还可以通过这种方式来取代它本身的帐号系统。若该用户脚本中的返回值非0,就会导致HOD分配集群失败。并且在发生错误时,HOD还会将脚本中产生的错误信息打印出来。通过这种方式,任何描述性的错误信息都可以从用户脚本中返回给用户。

在HOD中自带的默认脚本是不做任何的用户核实,并返回0。

如果HOD没有找到上面提到的verify-account脚本,HOD就会认为该用户核实的功能被关闭,然后继续自己以后的分配工作。

时间: 2024-09-15 09:09:27

Hadoop On Demand管理指南的相关文章

Hadoop On Demand用户指南

本文讲的是Hadoop On Demand用户指南,[IT168 资讯]后面的文档包括一个快速入门指南能让你快速上手HOD,一个所有HOD特性的详细手册,命令行选项,一些已知问题和故障排除的信息.HOD使用入门 在这部分,我们将会逐步骤地介绍使用HOD涉及到的最基本的操作.在开始遵循这些步骤之前,我们假定HOD及其依赖的软硬件均已被正确安装和配置.这步通常由集群的系统管理员负责. HOD的用户界面是一个命令行工具,叫做hod.它被一个通常由系统管理员为用户设置好的配置文件所驱动.用户在使用hod

Hadoop On Demand配置指南

[IT168 资讯]1. 简介 本文讲的是Hadoop On Demand配置指南,这个文档讲述了一些最重要和常用的Hadoop On Demand(HOD)的配置项. 这些配置项可通过两种方式指定:INI风格的配置文件,通过--section.option[=value]格式指定的HOD shell的命令行选项.如果两个地方都指定了同一个选项,命令行中的值覆盖配置文件中的值. 你可以通过以下命令获得所有配置项的简要描述: $ hod --verbose-help 2. 段 HOD配置文件分成以

《HBase管理指南》一导读

前 言 HBase管理指南作为一个开源.分布式的大数据存储系统,HBase可以处理记录数达几十亿条.字段数达数百万个的大数据,并且只需依靠一些由商品化硬件而构成的集群就可以运行.如果你正在寻找一种能够实时存储和访问海量数据的方法,那么你就必须研究一下HBase. <HBase管理指南>一书提供了一些实用的例子和一些简单详尽的操作步骤,使你可以轻松地管理HBase.本书的章节涵盖了在云计算环境中管理一个完全分布式的高可用HBase集群所需的各种过程.处理如此海量的数据意味着建立起一套有组织.可管

《HBase管理指南》一第1章 HBase集群安装

第1章 HBase集群安装 HBase管理指南本章内容: 快速入门 Amazon EC2的安装及准备 Hadoop安装 ZooKeeper安装 内核参数设置修改 HBase安装 Hadoop/ZooKeeper/HBase基本配置 多个高可靠性(HA)主节点的安装

Hadoop 集群管理上的新“绝招”

Hadoop在一些企业部署时,往往会遇到多个用户各自创建的数据处理工作的情况.这些工作都运行在同一个Hadoop系统上时,他们之间可能会彼此冲突,争夺可用的处理器资源. David Clubb,在移动游戏平台和市场公司Chartboost的高级数据工程师,试图优化大数据技术,提升产品体验时,也遇到了Hadoop集群管理的问题."我们正在更新Hadoop软件,并试图将其迁移到新的集群,但并没有找到监控集群的好方法,"Clubb说道."你可以看到工作在运行,但你却不能看到其所使用

Hadoop环境中管理大数据存储八大技巧

在现如今,随着IT互联网信息技术的飞速发展和进步.目前大数据行业也越来越火爆,从而导致国内大数据人才也极度缺乏,大讲台了解这一情况后专门在网上开通了这一门大数据培训课程,下面来介绍一下关于Hadoop环境中管理大数据存储技巧吧. 1.分布式存储 传统化集中式存储存在已有一段时间.但大数据并非真的适合集中式存储架构.Hadoop设计用于将计算更接近数据节点,同时采用了HDFS文件系统的大规模横向扩展功能. 虽然,通常解决Hadoop管理自身数据低效性的方案是将Hadoop数据存储在SAN上.但这也

数据中心电源设计与管理指南

PDF下载地址:   数据中心电源设计与管理指南 

《HBase管理指南》一1.4 安装Hadoop

1.4 安装Hadoop 完全分布式的HBase要运行在HDFS之上.对于完全分布式的HBase集群来说,其主守护进程(HMaster)通常要运行在HDFS主节点所在的服务器(NameNode)上,而其从守护进程(HRegionServer)要运行在HDFS从节点所在的服务器(我们称之为DataNode)上. HBase并不必须使用Hadoop MapReduce,所以我们也不需要启动MapReduce的守护进程.本节也会对MapReduce的安装进行介绍,因为你毕竟有可能要在HBase上运行M

《HBase管理指南》一1.8 Hadoop/ZooKeeper/HBase基本配置

1.8 Hadoop/ZooKeeper/HBase基本配置 在进行下一步工作之前,我们需要进行一些基本设置的调优.这都是一些非常基本和非常重要的Hadoop(HDFS).ZooKeeper和HBase设置,你应该在安装好集群后立刻修改这些设置. 有些设置会对数据持久性或集群可用性产生影响,因此必须进行配置,而另外一些设置则是为保证HBase顺畅运行而推荐你进行的设置. 这些配置的设置值取决于你的硬件.数据量和集群的规模.本节将对此进行一种指南式的描述.你可能需要根据自己的具体环境对这些设置值进