hadoop的livenodes为0

本文介绍了如何在Hadoop集群配置过程中修复hosts文件错误,处理可能因频繁format导致的问题,以及在遇到SSH问题时的排查步骤。作者建议避免频繁格式化Hadoop,并提供了解决format过多导致的配置问题的方法。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

一直cd ,,到主界面,输入:

vim /etc/hosts

查看是否写错地址或者拼写错地址。上面两行是localhost的东西,不用管。

记得把所有主机的文件都改一遍。

改完后,在master中

stop-all.sh

在start-all.sh进行重启

再进入50070的页面,发现node正常了。

还有可能是因为你format太多次了。可以删除各种logs,current文件,这个其他教程里有具体的说明。

我在第二次配置集群的时候,遇到的是format太多次的情况,按照删除log,current文件,把配置文件中的id手动修改一致后,还是无法成功启动。能提供的信息是,大概率不是ssh的问题,ssh出问题时,start-all会给出ssh报错。

无奈之下只能全部删除重配。配起来比de这个bug快多了。

format过了就不要再乱format你的hadoop了,除非动了core-site.xml中的hadoop.tmp.dir,否则会报错。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值