spark启动历史服务配置时报错java.net.ConnectException: Connection refused; For more details see: http://wiki.ap

博客讲述了在启动Spark历史服务时遇到的问题,即HDFS端口与Spark配置中的端口不一致导致的ConnectionRefused错误。解决方案是确保Spark配置与Hadoop核心配置中的HDFS端口保持一致,可以通过修改Spark的spark-defaults.conf和spark-env.sh文件或将Hadoop的core-site.xml中端口改为相同来解决。遵循这一方法后,可以成功启动Spark历史服务。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

spark启动历史服务配置时,没报错,然后在运行spark任务时报错:
Call From master/ip to master:8020 failed on connection exception: java.net.ConnectException: Connection refused; For more details see: http://wiki.apache.org/hadoop/ConnectionRefused
通过查看spark历史服务配置的日志,日志路径为spark/logs目录下,发现spark的history历史服务并没有起来,日志报错为:Call From master/ip to master:8020 failed on connection exception: java.net.ConnectException: Connection refused; For more details see: http://wiki.apache.org/hadoop/ConnectionRefused
大致意思是hdfs拒绝了连接,原因是默认我的hadoop中core-site.xml文件中配置的hdfs端口为9000在这里插入图片描述
而在spark的yarn配置中,我的spark.eventLog.dir中hdfs端口为8020
在这里插入图片描述
解决方案:将两边的端口匹配。
方法一:需改spark目录下conf/spark-defaults.conf和spark-env.sh,将其中spark历史log的hdfs端口改为9000(推荐此做法)
在这里插入图片描述
在这里插入图片描述

方法二:直接修改core-site中hdfs的默认端口,将9000端口改为8020

修改后即可启动spark历史配置服务。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值