Hadoop 2.6.0 浏览文件系统 Java
Hadoop 2.6.0 Browsing filesystem Java
我已经在 CentOS 6.6 上安装了一个基本的 hadoop 集群,想写一些基本的程序(浏览文件系统、delete/add 文件等),但我连最基本的应用程序都在努力工作.
当 运行 一些基本代码将目录的内容列出到控制台时,我收到以下错误:
Exception in thread "main" java.lang.NoSuchMethodError: org.apache.hadoop.ipc.RPC.getProxy(Ljava/lang/Class;JLjava/net/InetSocketAddress;Lorg/apache/hadoop/security/UserGroupInformation;Lorg/apache/hadoop/conf/Configuration;Ljavax/net/SocketFactory;ILorg/apache/hadoop/io/retry/RetryPolicy;Z)Lorg/apache/hadoop/ipc/VersionedProtocol;
at org.apache.hadoop.hdfs.DFSClient.createRPCNamenode(DFSClient.java:135)
at org.apache.hadoop.hdfs.DFSClient.<init>(DFSClient.java:280)
at org.apache.hadoop.hdfs.DFSClient.<init>(DFSClient.java:245)
at org.apache.hadoop.hdfs.DistributedFileSystem.initialize(DistributedFileSystem.java:100)
at mapreducetest.MapreduceTest.App.main(App.java:36)
我的 pom.xml 依赖项
<dependencies>
<dependency>
<groupId>org.apache.hadoop</groupId>
<artifactId>hadoop-common</artifactId>
<version>2.6.0</version>
</dependency>
<dependency>
<groupId>org.apache.hadoop</groupId>
<artifactId>hadoop-core</artifactId>
<version>1.2.1</version>
</dependency>
</dependencies>
代码:
import java.io.IOException;
import java.net.URI;
import java.net.URISyntaxException;
import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.fs.FileStatus;
import org.apache.hadoop.fs.FileSystem;
import org.apache.hadoop.fs.Path;
import org.apache.hadoop.hdfs.DistributedFileSystem;
public class App
{
public static void main( String[] args ) throws IOException, URISyntaxException
{
Configuration conf = new Configuration();
FileSystem fs = new DistributedFileSystem();
fs.initialize(new URI("hdfs://localhost:9000/"), conf);
for (FileStatus f :fs.listStatus(new Path("/")))
{
System.out.println(f.getPath().getName());
}
fs.close();
}
}
调用 fs.initialize() 后抛出错误。我真的不确定这里有什么问题。我缺少依赖项吗?他们是错误的版本吗?
我是 运行 通过调用 "java -jar app.jar .... etc"
我应该一直在使用 "hadoop jar app.jar".
当我 运行 它正确时按预期工作。
我已经在 CentOS 6.6 上安装了一个基本的 hadoop 集群,想写一些基本的程序(浏览文件系统、delete/add 文件等),但我连最基本的应用程序都在努力工作.
当 运行 一些基本代码将目录的内容列出到控制台时,我收到以下错误:
Exception in thread "main" java.lang.NoSuchMethodError: org.apache.hadoop.ipc.RPC.getProxy(Ljava/lang/Class;JLjava/net/InetSocketAddress;Lorg/apache/hadoop/security/UserGroupInformation;Lorg/apache/hadoop/conf/Configuration;Ljavax/net/SocketFactory;ILorg/apache/hadoop/io/retry/RetryPolicy;Z)Lorg/apache/hadoop/ipc/VersionedProtocol;
at org.apache.hadoop.hdfs.DFSClient.createRPCNamenode(DFSClient.java:135)
at org.apache.hadoop.hdfs.DFSClient.<init>(DFSClient.java:280)
at org.apache.hadoop.hdfs.DFSClient.<init>(DFSClient.java:245)
at org.apache.hadoop.hdfs.DistributedFileSystem.initialize(DistributedFileSystem.java:100)
at mapreducetest.MapreduceTest.App.main(App.java:36)
我的 pom.xml 依赖项
<dependencies>
<dependency>
<groupId>org.apache.hadoop</groupId>
<artifactId>hadoop-common</artifactId>
<version>2.6.0</version>
</dependency>
<dependency>
<groupId>org.apache.hadoop</groupId>
<artifactId>hadoop-core</artifactId>
<version>1.2.1</version>
</dependency>
</dependencies>
代码:
import java.io.IOException;
import java.net.URI;
import java.net.URISyntaxException;
import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.fs.FileStatus;
import org.apache.hadoop.fs.FileSystem;
import org.apache.hadoop.fs.Path;
import org.apache.hadoop.hdfs.DistributedFileSystem;
public class App
{
public static void main( String[] args ) throws IOException, URISyntaxException
{
Configuration conf = new Configuration();
FileSystem fs = new DistributedFileSystem();
fs.initialize(new URI("hdfs://localhost:9000/"), conf);
for (FileStatus f :fs.listStatus(new Path("/")))
{
System.out.println(f.getPath().getName());
}
fs.close();
}
}
调用 fs.initialize() 后抛出错误。我真的不确定这里有什么问题。我缺少依赖项吗?他们是错误的版本吗?
我是 运行 通过调用 "java -jar app.jar .... etc" 我应该一直在使用 "hadoop jar app.jar".
当我 运行 它正确时按预期工作。