此操作中有 1 个数据节点 运行 和 1 个节点被排除在外。 (伪分布式模式)

There are 1 datanode(s) running and 1 node(s) are excluded in this operation. (pseudodistributed mode)

我正在使用 java 使用 hadoop 2.7,我遇到了这个错误。我可以创建一个文件,但我不能在文件中写入:

错误:

ERROR File /test/1.txt could only be replicated to 0 nodes instead of minReplication (=1). There are 1 datanode(s) running and 1 node(s) are excluded in this operation.

我已阅读有关此错误的信息,但我的数据节点未满。

我正在使用在 linux (ubuntu 18.10) 中工作的 1 个单节点集群。 从我的 windows 计算机(在同一网络上)我从 java 访问我的集群

我已经解决了这个问题。

有两种可能性:

1) 数据节点已满。请检查您的数据节点是否已满--->

我使用这个命令 $ dfs -du -h /

2) 或者第二个选项是数据节点工作不正常。 (您的名称节点可能工作正常或不正常)。 (如果 namenode 启动而 datnode 关闭,hdfs 可以让您创建文件但不能写入文件。)(如果 datanode 和 namenode 关闭,则您无法创建或写入文件)。 您可以在 core-site.xml.

中检查与数据节点的连接

旧日期----------------:

    <?xml version="1.0"?>
    <?xml-stylesheet type="text/xsl" href="configuration.xsl"?>

    <configuration>
        <property>
            <name>fs.default.name</name>
            <value>hdfs://0.0.0.0:8020</value>
            <description>Nombre del filesystem por defecto.</description>
        </property>
    </configuration>

最新----------------:

    <?xml version="1.0"?>
    <?xml-stylesheet type="text/xsl" href="configuration.xsl"?>

    <configuration>
        <property>
            <name>fs.default.name</name>
            <value>hdfs://ip_where_you_are_dating:8020</value>
            <description>Nombre del filesystem por defecto.</description>
        </property>
    </configuration>

第二个选项: