hadoop 将本地文件复制到 Hadoop SF 错误
hadoop copy a local file to Hadoop SF error
我想在 Hadoop FS 中复制一个本地文件。我 运行 这个命令:
sara@ubuntu:/usr/lib/hadoop/hadoop-2.3.0/bin$ hadoop fs -copyFromLocal /home/sara/Downloads/CA-GrQc.txt /usr/lib/hadoop/hadoop-2.3.0/${HADOOP_HOME}/hdfs/namenode
和
sara@ubuntu:/usr/lib/hadoop/hadoop-2.3.0/bin$ hdfs dfs -copyFromLocal /home/sara/Downloads/CA-GrQc.txt /usr/lib/hadoop/hadoop-2.3.0/${HADOOP_HOME}/hdfs/namenode
即使我 运行 : hdfs dfs -ls
我收到这个错误:
> WARN util.NativeCodeLoader: Unable to load native-hadoop library for
> your platform... using builtin-java classes where applicable
> copyFromLocal: `.': No such file or directory
我不知道为什么会出现此错误?有什么想法吗?
根据您的输入,您的 Hadoop 安装似乎运行良好。有什么问题,hadoop fs -copyFromLocal
期望目录 HDFS 目录作为目标目录,而不是 Hadoop 存储其块的本地目录。
所以在你的情况下,命令应该看起来像(例如):
sara@ubuntu:/usr/lib/hadoop/hadoop-2.3.0/bin$ hdfs dfs -copyFromLocal /home/sara/Downloads/CA-GrQc.txt /sampleDir/
其中 sampleDir
是您使用 hadoop fs -mkdir
命令创建的目录。
我想在 Hadoop FS 中复制一个本地文件。我 运行 这个命令:
sara@ubuntu:/usr/lib/hadoop/hadoop-2.3.0/bin$ hadoop fs -copyFromLocal /home/sara/Downloads/CA-GrQc.txt /usr/lib/hadoop/hadoop-2.3.0/${HADOOP_HOME}/hdfs/namenode
和
sara@ubuntu:/usr/lib/hadoop/hadoop-2.3.0/bin$ hdfs dfs -copyFromLocal /home/sara/Downloads/CA-GrQc.txt /usr/lib/hadoop/hadoop-2.3.0/${HADOOP_HOME}/hdfs/namenode
即使我 运行 : hdfs dfs -ls
我收到这个错误:
> WARN util.NativeCodeLoader: Unable to load native-hadoop library for
> your platform... using builtin-java classes where applicable
> copyFromLocal: `.': No such file or directory
我不知道为什么会出现此错误?有什么想法吗?
根据您的输入,您的 Hadoop 安装似乎运行良好。有什么问题,hadoop fs -copyFromLocal
期望目录 HDFS 目录作为目标目录,而不是 Hadoop 存储其块的本地目录。
所以在你的情况下,命令应该看起来像(例如):
sara@ubuntu:/usr/lib/hadoop/hadoop-2.3.0/bin$ hdfs dfs -copyFromLocal /home/sara/Downloads/CA-GrQc.txt /sampleDir/
其中 sampleDir
是您使用 hadoop fs -mkdir
命令创建的目录。