写入HDFS只能复制到0个节点,而不能复制minReplication(= 1)
我有3个数据节点在运行,在运行作业时出现以下错误提示,
java.io.IOException:文件/ user / ashsshar / olhcache /
loaderMap9b663bd9只能复制到0个节点,而不是minReplication(=
1)。有3个数据节点在运行,并且此操作中不包括3个节点。在org.apache.hadoop.hdfs.server.blockmanagement.BlockManager.chooseTarget(BlockManager.java:1325)
当我们的DataNode实例空间不足或DataNode不在运行时,就会发生此错误。我尝试重新启动DataNode,但仍然遇到相同的错误。
我的群集节点上的dfsadmin -reports清楚地表明有很多可用空间。
我不确定为什么会这样。
回答:
1,停止所有Hadoop守护程序
for x in `cd /etc/init.d ; ls hadoop*` ; do sudo service $x stop ; done
2.从中删除所有文件 /var/lib/hadoop-hdfs/cache/hdfs/dfs/name
Eg: devan@Devan-PC:~$ sudo rm -r /var/lib/hadoop-hdfs/cache/
3,格式化Namenode
sudo -u hdfs hdfs namenode -format
4.启动所有Hadoop守护程序
for x in `cd /etc/init.d ; ls hadoop*` ; do sudo service $x start ; done
停止所有Hadoop服务
以上是 写入HDFS只能复制到0个节点,而不能复制minReplication(= 1) 的全部内容, 来源链接: utcz.com/qa/412866.html