hdfs长时间写入数据报错

本文探讨了在向HDFS批量导入数据时遇到的“远程主机强制关闭了一个现有链接”错误,通过调整DataNode写入策略,即设置dfs.client.block.write.replace-datanode-on-failure.policy和dfs.client.block.write.replace-datanode-on-failure.enable参数为特定值,以解决无可用DataNode的问题,确保数据导入流程的连续性和完整性。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

问题描述:

客户要导入一批数据到hdfs,程序运行一会后报错:远程主机强制关闭了一个现有链接

 提示信息说无可用datanode,但是之前已经上传了一些文件了,查了些资料说是  DataNode写入策略问题导致失败

解决办法:

conf.set("dfs.client.block.write.replace-datanode-on-failure.policy","NEVER"); 
conf.set("dfs.client.block.write.replace-datanode-on-failure.enable","true"); 

在代码中加入这两句配置,还不清楚具体什么作用,也会报上面的错误,但是这次会跳过继续往下执行。。然后就是收集下没有导入的数据。之后再重新导入。

原文地址:https://blog.csdn.net/wangweislk/article/details/78890163

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值