国内最全IT社区平台 联系我们 | 收藏本站
华晨云阿里云优惠2
您当前位置:首页 > 服务器 > hadoop集群所有的datanode都启动不利(处理办法)

hadoop集群所有的datanode都启动不利(处理办法)

来源:程序员人生   发布时间:2015-01-19 08:21:50 阅读次数:2412次

首先会出现几种情况,才会出现启动不了datanode的情况。

1.首先修改过master那台的配置文件,

2.屡次hadoop namenode -format这类不好的习惯。

1般会出现1下报错:

java.io.IOException: Cannot lock storage /usr/hadoop/tmp/dfs/name. The directory is already locked.

或是:

[root@hadoop current]# hadoop-daemon.sh start datanode
starting datanode, logging to /usr/local/hadoop1.1/libexec/../logs/hadoop-root-datanode-hadoop.out
[root@hadoop ~]# jps
jps命令发现没有datanode启动

对这类情况请先试1下:

在坏死的节点上输入以下命令便可:

bin/Hadoop-daemon.sh start DataNode 

bin/Hadoop-daemon.sh start jobtracker

如果还不可以的话,那末恭喜你和我遇到的情况1下。


正确的处理方法是,到你的每一个Slave下面去,找到.../usr/hadoop/tmp/dfs/  -ls

会显示有: data

这里需要把data文件夹删掉。接着直接在刚才的目录下启动hadoop

start-all.sh

接着查看jps

那末就会出现datanode.了

接着去看

http://210.41.166.61(你的master的IP):50070

里面的活节点有多少个?

http://210.41.166.61(你的master的ip):50030/

显示的node数目。


OK,问题解决。



生活不易,码农辛苦
如果您觉得本网站对您的学习有所帮助,可以手机扫描二维码进行捐赠
程序员人生
------分隔线----------------------------
分享到:
------分隔线----------------------------
关闭
程序员人生