问题描述
情况是这样的:我有五台服务器搭建了一个cdh的集群,分别是从nana1到nana5,因为是chd自动搭建的平台,nana1为主节点配置如下:其余节点配置如下:那么问题来了:我有四个datanode,我现在使用spark-shell的时候,想让这四个datanode都成为worker节点,这四个节点一起工作分析任务。所以我在cm中配置如下:我的理想是启动时候四个节点都乖乖的成为worker,他们四个干活,nana1挥着鞭子指挥他们。但是,理想始终像被汪啃了一块,当我启动spark-shell的时候,启动配置如下:nana1是BlockManager,nana2是ApplicationMaster,nana3到nana5是worker这TM的不科学那么问题来了,请问各位大神:1.spark的结构配置就是这样的么,一个blockmanager,一个applicationMaster,其余的才是worker?2.如果我想改变这样的配置,让nana2-5成为worker,nana1自己去管理,这样的方案可行么?3.如果2可行,那么,请问具体怎么配置?谢谢各位大神。。。。
解决方案
时间: 2024-10-11 05:14:23