说明:
1. start-all.sh脚本执行,namenode和jobtracker需在同一个物理节点上
2. namenode和jobtracker物理分离,则分别执行start-dfs.sh和start-mapred.sh
3. 棕色块,采用namenode或者jobtracker本地启动方式,执行start-daemon.sh
4. 墨绿块,采用namenode或者jobtracker远程ssh方式启动,执行start-daemons.sh,调用slaves.sh
5. 各个脚本最终都执行hadoop命令,并将启动的参数传递进去
查看本栏目更多精彩内容:http://www.bianceng.cnhttp://www.bianceng.cn/webkf/tools/
时间: 2024-11-01 07:40:39