问题描述:
在我想要查询内部名称节点和数据节点的私网ip时,使用hadoop dfsadmin -report命令只出现下面图中所示内容。
并且在后续使用Java api进行文件上传,文件下载出现下面的报错:
File /xiyou/huangguoshan/sunwukong.txt could only be written to 0 of the 1 minReplication nodes. There are 0 datanode(s) running and 0 node(s) are excluded in this operation.
这表明在写入文件xxx.txt文件
时,没有足够的数据节点可用。
问题原因:
namenode和datanode启动id不一致,这是因为不止一次的进行Hadoop系统格式化操作。即多次使用命令hdfs namenode -format
解决办法:
(1)在启动主节点namenode那台机器上找到你安装hadoop的文件目录,我的是hadoop102.