hadoop 将本地文件复制到 Hadoop SF 错误

hadoop copy a local file to Hadoop SF error

我想在 Hadoop FS 中复制一个本地文件。我 运行 这个命令:

sara@ubuntu:/usr/lib/hadoop/hadoop-2.3.0/bin$  hadoop fs -copyFromLocal /home/sara/Downloads/CA-GrQc.txt /usr/lib/hadoop/hadoop-2.3.0/${HADOOP_HOME}/hdfs/namenode

sara@ubuntu:/usr/lib/hadoop/hadoop-2.3.0/bin$  hdfs dfs -copyFromLocal /home/sara/Downloads/CA-GrQc.txt /usr/lib/hadoop/hadoop-2.3.0/${HADOOP_HOME}/hdfs/namenode

即使我 运行 : hdfs dfs -ls

我收到这个错误:

> WARN util.NativeCodeLoader: Unable to load native-hadoop library for
> your platform... using builtin-java classes where applicable
> copyFromLocal: `.': No such file or directory

我不知道为什么会出现此错误?有什么想法吗?

根据您的输入,您的 Hadoop 安装似乎运行良好。有什么问题,hadoop fs -copyFromLocal 期望目录 HDFS 目录作为目标目录,而不是 Hadoop 存储其块的本地目录。

所以在你的情况下,命令应该看起来像(例如):

sara@ubuntu:/usr/lib/hadoop/hadoop-2.3.0/bin$  hdfs dfs -copyFromLocal /home/sara/Downloads/CA-GrQc.txt /sampleDir/

其中 sampleDir 是您使用 hadoop fs -mkdir 命令创建的目录。