惭入佳境之HADOOP的NAMENODE不能正常启动的问题解决

注意到以下错误行不?

java.io.FileNotFoundException: /app/hadoop/tmp/dfs/name/current/VERSION (Permission denied)

印象中,刚才用ROOT帐号试着启动了一下。

X,我再换回HDUSER用户就不行了。

进入VERSION目录一看,原来每次启动之后,NAME目录下的属性会变成启动用户ROOT的。

于是更改回HDUSER。

一切OK。

 

~~~~~~~~~~~~~~~~~~~~~~~

2013-04-11 01:52:51,606 INFO org.apache.hadoop.hdfs.server.namenode.NameNode: STARTUP_MSG:

/************************************************************

STARTUP_MSG: Starting NameNode

STARTUP_MSG:   host = Master/192.168.7.238

STARTUP_MSG:   args = []

STARTUP_MSG:   version = 1.1.2

STARTUP_MSG:   build = https://svn.apache.org/repos/asf/hadoop/common/branches/branch-1.1 -r 1440782; compiled by 'hortonfo' on Thu Jan 31 02:03:24 UTC 2013

************************************************************/

2013-04-11 01:52:53,212 INFO org.apache.hadoop.metrics2.impl.MetricsConfig: loaded properties from hadoop-metrics2.properties

2013-04-11 01:52:53,324 INFO org.apache.hadoop.metrics2.impl.MetricsSourceAdapter: MBean for source MetricsSystem,sub=Stats registered.

2013-04-11 01:52:53,333 INFO org.apache.hadoop.metrics2.impl.MetricsSystemImpl: Scheduled snapshot period at 10 second(s).

2013-04-11 01:52:53,333 INFO org.apache.hadoop.metrics2.impl.MetricsSystemImpl: NameNode metrics system started

2013-04-11 01:52:55,098 INFO org.apache.hadoop.metrics2.impl.MetricsSourceAdapter: MBean for source ugi registered.

2013-04-11 01:52:55,408 INFO org.apache.hadoop.metrics2.impl.MetricsSourceAdapter: MBean for source jvm registered.

2013-04-11 01:52:55,442 INFO org.apache.hadoop.metrics2.impl.MetricsSourceAdapter: MBean for source NameNode registered.

2013-04-11 01:52:55,771 INFO org.apache.hadoop.hdfs.util.GSet: VM type       = 64-bit

2013-04-11 01:52:55,772 INFO org.apache.hadoop.hdfs.util.GSet: 2% max memory = 19.33375 MB

2013-04-11 01:52:55,772 INFO org.apache.hadoop.hdfs.util.GSet: capacity      = 2^21 = 2097152 entries

2013-04-11 01:52:55,772 INFO org.apache.hadoop.hdfs.util.GSet: recommended=2097152, actual=2097152

2013-04-11 01:52:56,135 INFO org.apache.hadoop.hdfs.server.namenode.FSNamesystem: fsOwner=hduser

2013-04-11 01:52:56,136 INFO org.apache.hadoop.hdfs.server.namenode.FSNamesystem: supergroup=supergroup

2013-04-11 01:52:56,136 INFO org.apache.hadoop.hdfs.server.namenode.FSNamesystem: isPermissionEnabled=true

2013-04-11 01:52:56,219 INFO org.apache.hadoop.hdfs.server.namenode.FSNamesystem: dfs.block.invalidate.limit=100

2013-04-11 01:52:56,220 INFO org.apache.hadoop.hdfs.server.namenode.FSNamesystem: isAccessTokenEnabled=false accessKeyUpdateInterval=0 min(s), accessTokenLifetime=0 min(s)

2013-04-11 01:52:58,978 INFO org.apache.hadoop.hdfs.server.namenode.FSNamesystem: Registered FSNamesystemStateMBean and NameNodeMXBean

2013-04-11 01:52:59,185 INFO org.apache.hadoop.hdfs.server.namenode.NameNode: Caching file names occuring more than 10 times

2013-04-11 01:52:59,351 ERROR org.apache.hadoop.hdfs.server.namenode.FSNamesystem: FSNamesystem initialization failed.

java.io.FileNotFoundException: /app/hadoop/tmp/dfs/name/current/VERSION (Permission denied)

at java.io.RandomAccessFile.open(Native Method)

at java.io.RandomAccessFile.<init>(RandomAccessFile.java:233)

at org.apache.hadoop.hdfs.server.common.Storage$StorageDirectory.read(Storage.java:219)

at org.apache.hadoop.hdfs.server.common.Storage$StorageDirectory.read(Storage.java:215)

at org.apache.hadoop.hdfs.server.namenode.FSImage.recoverTransitionRead(FSImage.java:314)

at org.apache.hadoop.hdfs.server.namenode.FSDirectory.loadFSImage(FSDirectory.java:100)

at org.apache.hadoop.hdfs.server.namenode.FSNamesystem.initialize(FSNamesystem.java:411)

at org.apache.hadoop.hdfs.server.namenode.FSNamesystem.<init>(FSNamesystem.java:379)

at org.apache.hadoop.hdfs.server.namenode.NameNode.initialize(NameNode.java:284)

at org.apache.hadoop.hdfs.server.namenode.NameNode.<init>(NameNode.java:536)

at org.apache.hadoop.hdfs.server.namenode.NameNode.createNameNode(NameNode.java:1410)

at org.apache.hadoop.hdfs.server.namenode.NameNode.main(NameNode.java:1419)

2013-04-11 01:52:59,418 ERROR org.apache.hadoop.hdfs.server.namenode.NameNode: java.io.FileNotFoundException: /app/hadoop/tmp/dfs/name/current/VERSION (Permission denied)

at java.io.RandomAccessFile.open(Native Method)

at java.io.RandomAccessFile.<init>(RandomAccessFile.java:233)

at org.apache.hadoop.hdfs.server.common.Storage$StorageDirectory.read(Storage.java:219)

at org.apache.hadoop.hdfs.server.common.Storage$StorageDirectory.read(Storage.java:215)

at org.apache.hadoop.hdfs.server.namenode.FSImage.recoverTransitionRead(FSImage.java:314)

at org.apache.hadoop.hdfs.server.namenode.FSDirectory.loadFSImage(FSDirectory.java:100)

at org.apache.hadoop.hdfs.server.namenode.FSNamesystem.initialize(FSNamesystem.java:411)

at org.apache.hadoop.hdfs.server.namenode.FSNamesystem.<init>(FSNamesystem.java:379)

at org.apache.hadoop.hdfs.server.namenode.NameNode.initialize(NameNode.java:284)

at org.apache.hadoop.hdfs.server.namenode.NameNode.<init>(NameNode.java:536)

at org.apache.hadoop.hdfs.server.namenode.NameNode.createNameNode(NameNode.java:1410)

at org.apache.hadoop.hdfs.server.namenode.NameNode.main(NameNode.java:1419)

2013-04-11 01:52:59,437 INFO org.apache.hadoop.hdfs.server.namenode.NameNode: SHUTDOWN_MSG:

/************************************************************

SHUTDOWN_MSG: Shutting down NameNode at Master/192.168.7.238

************************************************************/

时间: 2024-09-10 02:18:22

惭入佳境之HADOOP的NAMENODE不能正常启动的问题解决的相关文章

惭入佳境之布置双节点DATANODE及错误解决

先流一下口水~~~~ 传说中YAHOO用于HADOOP的机房: 推荐安装指南: http://www.michael-noll.com/tutorials/running-hadoop-on-ubuntu-linux-multi-node-cluster/ 其布置多节点的思路是: 先将第一个布置好的SINGLE节点方案弄好. 然后,将第一个节点的东东复制到另一个节点. 再将第二个节点降成DATANODE节点,而第一个节点为NAMENODE节点. 这样,就很好的实现了节点扩展. 但....其实,在

太阳能光伏发电行业将重入佳境

6月1日美国新总统特朗普宣布退出<巴黎协定>,全世界一片哗然,感觉全世界气候变化的天都要变了,但对中国的光伏发电行业来讲却真是一个重大利好.此前,中国在西方世界面前最缺乏的是软实力,是道德高点,是正面形象,也因此吃够了政治.经济亏,特朗普这一举动给了中国一个巨大的塑造形象.领导潮流的机会,也就为中国新能源产业的发展.状大提供了政治保障,将为破解.扫除新能源产业前进障碍提供巨大的推力. 中国新能源产业经过一段时间的狂飚猛进后,从前年开始进入困境,特别是在西北地区建设有大量地面光伏电站的光伏发电行

hadoop教程(四) hadoop1.x启动脚本逻辑

说明: 1. start-all.sh脚本执行,namenode和jobtracker需在同一个物理节点上 2. namenode和jobtracker物理分离,则分别执行start-dfs.sh和start-mapred.sh 3. 棕色块,采用namenode或者jobtracker本地启动方式,执行start-daemon.sh 4. 墨绿块,采用namenode或者jobtracker远程ssh方式启动,执行start-daemons.sh,调用slaves.sh 5. 各个脚本最终都执

hadoop jobtracker 和 tasktracker 没有启动

问题描述 hadoop jobtracker 和 tasktracker 没有启动 hadoop版本:2.6 hosts已经修改; java 环境变量:配置的/etc/environment中,如下图: core-site.xml配置如下图: mapred-site.xml配置如下图 hdfs-site.xml配置如下图: 启动脚本: 使用 start-all.sh启动hadoop 但是jps查看进程没有jobtracker和 tasktracker 大神指点啊,小弟初学找了很久了没解决问题.

Hadoop的namenode的管理机制,工作机制和datanode的工作原理

HDFS前言: 1) 设计思想 分而治之:将大文件.大批量文件,分布式存放在大量服务器上,以便于采取分而治之的方式对海量数据进行运算分析: 2)在大数据系统中作用: 为各类分布式运算框架(如:mapreduce,spark,tez,--)提供数据存储服务 3)重点概念:文件切块,副本存放,元数据 1:分布式文件系统(Distributed File System): (1):数据量越来越多,在一个操作系统管辖的范围存不下了,那么就分配到更多的操作系统管理的磁盘中,但是不方便管理和维护,因此迫切需

《中国远征军》血性十足入佳境三大跟班受追捧

小兵张嘎饰演者谢孟伟 新浪娱乐讯 投资过亿.从策划到筹备长达十余年的战争大戏<中国远征军>正在江苏卫视热播,该剧最大程度的还原了二次世界大战时期中国远征军在缅甸战场上浴血奋战.保卫滇缅公路的史实.这部血性十足的男人戏中出现很多硬汉,除了黄志忠饰演的男一号韩绍功深得观众喜爱,他手下的一队"跟班"也受到观众的追捧.他们中,有不要命的"猛将兄",曾经的"谋男郎",也有小兵"嘎子". "猛将兄"怎也死不

丁磊在张江高新区二次创业入佳境

南都讯 7月12日,上海市政府正式批转<张江国家自主创新示范区企业股权和分红激励试行办法>,这标志着张江股权激励方案取得突破性进展,今后凡在张江 高新区内从事创新创业的国有企业.高等院校.科研机构可采取股权奖励.股权出售.股票期权.增值权奖励等方式,对技术人员和管理人员进行激励.今年48岁的张江高科董事长丁磊,有堪称完美的职业生涯.过去6年,作为上海通用汽车的总经理,丁磊和他的团队彻底改变了这家中外合资企业,2010年再度蝉联年度汽车销售总冠军,总销量一举突 破百万大关.从上海通用到上海张江,

常州国际动漫周入佳境

资讯看板 本报讯(蒋志文 陈秀荣 记者丁秀玉)8月27日,2010中国(常州)国际动漫艺术周暨国际动漫交易会开幕,本次艺术周由文化部和江苏省政府联合主办,升格为"国家级"节展平台的艺术周和交易会,吸引了来自美国.英国.法国.韩国以及香港.台湾等20多个国家和地区的 400多家原创动漫制作商.播出媒体.衍生产品运作商等前来展示.交易.洽谈合作. 为了加快培育.壮大新兴产业,从2008年起,常州全面整合了常州国家动画产业基地.国家数字娱乐产业示范基地.国家火炬计划软件园.环球恐龙城等相关产

深发展:整合入佳境未来更精彩

深圳发展银行("深发展",深交所000001)9月15日发表公告,该行董事会于9月14日审议通过了发行股份购买资产的若干议案,拟由中国平安保险(集团)股份有限公司("中国平安")以其所持平安银行的约78.25亿股股份(约占平安银行总股本的90.75%)以及认购对价现金,以每股17.75元的价格认购深发展非公开发行的约16.38亿股股份.经中联资产评估有限公司评估,平安银行以2010年6月30日为评估基准日的评估值约为290.8亿元.交易结束后,深发展总股本增至51.