写入HDFS只能复制到0个节点,而不能复制minReplication(= 1)

我有3个数据节点在运行,在运行作业时出现以下错误提示,

java.io.IOException:文件/ user / ashsshar / olhcache /

loaderMap9b663bd9只能复制到0个节点,而不是minReplication(=

1)。有3个数据节点在运行,并且此操作中不包括3个节点。在org.apache.hadoop.hdfs.server.blockmanagement.BlockManager.chooseTarget(BlockManager.java:1325)

当我们的DataNode实例空间不足或DataNode不在运行时,就会发生此错误。我尝试重新启动DataNode,但仍然遇到相同的错误。

我的群集节点上的dfsadmin -reports清楚地表明有很多可用空间。

我不确定为什么会这样。

回答:

1,停止所有Hadoop守护程序

for x in `cd /etc/init.d ; ls hadoop*` ; do sudo service $x stop ; done

2.从中删除所有文件 /var/lib/hadoop-hdfs/cache/hdfs/dfs/name

Eg: devan@Devan-PC:~$ sudo rm -r /var/lib/hadoop-hdfs/cache/

3,格式化Namenode

sudo -u hdfs hdfs namenode -format

4.启动所有Hadoop守护程序

for x in `cd /etc/init.d ; ls hadoop*` ; do sudo service $x start ; done

停止所有Hadoop服务

以上是 写入HDFS只能复制到0个节点,而不能复制minReplication(= 1) 的全部内容, 来源链接: utcz.com/qa/412866.html

回到顶部