Hadoop:分布式集群搭建成功但livenode为0

在配置Hadoop分布式集群时,遇到问题:livenode显示为0,即使所有守护线程正常运行。问题在于slave节点尝试连接localhost:9000而非master节点的9000端口。原因是core-site.xml配置文件中,fs.defaultFS属性设置错误,被设置为hdfs://localhost:9000。解决方法是将slave节点的配置改为hdfs://master1:9000,修改后,slave节点成功连接到master节点的9000端口。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

背景是这样的:有3台虚拟机,master1、slave1、slave2。在master1上启动了所有守护线程,slave1和slave2中相关的守护线程也跑起来了,并且关闭了防火墙,但在master1上访问localhost:50070中的livenode始终为0,多次格式化后还是为0。

 

首先在master机上查看端口使用情况,发现只有来自slave机的ssh连接

我们再去slave机中查看datanode有关日志

发现slave机在反复尝试连接上localhost:9000,也就是本机的9000端口!这就是关键所在,slave机应该监听master机的9000端口才对

这是因为我一开始在配置master1中的core-site.xml时属性fs.defaultFS的值为hdfs://localhost:9000,然后我克隆出了两个slave机,导致了启动守护线程时slave机去尝试连接本地的9000端口

只需要将slave机中的value改为hdfs://master1:9000即可

改完后在master1中看一眼端口情况,多了来自两个slave机的监听

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值