HDFS Parquet 文件 reader 在 运行 使用 java 反射时未找到 DistributedFileSystem.class
HDFS Parquet file reader throwing DistributedFileSystem.class not found when run using java reflection
我正在尝试使用 java 从远程 HDFS 文件系统读取 parquet 文件。为此,我使用了 parquet-hadoop 库。
我的代码是这样的,
public Map run( Map inputs )
{
...
final Configuration conf = new Configuration();
conf.set("fs.hdfs.impl", org.apache.hadoop.hdfs.DistributedFileSystem.class.getName());
conf.set("fs.file.impl", org.apache.hadoop.fs.LocalFileSystem.class.getName());
conf.set("fs.defaultFS", "hdfs://" + connHostName + ":" + connPort);
conf.set("ipc.client.connect.timeout", "10000");
conf.set("ipc.client.connect.max.retries.on.timeouts", "3");
System.setProperty("hadoop.home.dir", "/");
Path path = new Path(filePath);
ParquetMetadata readFooter = ParquetFileReader.readFooter(conf, path, ParquetMetadataConverter.NO_FILTER);
MessageType schema = readFooter.getFileMetaData().getSchema();
...
}
下面是我正在使用的 Maven 依赖项,
<dependency>
<groupId>org.apache.parquet</groupId>
<artifactId>parquet-hadoop</artifactId>
<version>1.9.0</version>
</dependency>
<dependency>
<groupId>org.apache.hadoop</groupId>
<artifactId>hadoop-client</artifactId>
<version>3.1.0</version>
</dependency>
我还尝试添加 2 个依赖项,hadoop 核心和 hadoop hdfs
当我 运行 上面的 Parquet reader 代码工作正常时,我面临的问题是我 运行 作为反射。
我用它创建了一个 fat jar,并向其他程序提供 Class 名称和 jar,这将 运行 使用反射。
反射代码如下所示,
String packageName = "com.mycompany.hdfs.parquet.Parquet";
String jarPath = "/Users/.../hdfs-parquet-reader/target/hdfs-parquet-reader-0.0.1-jar-with-dependencies.jar";
ClassLoader child = new URLClassLoader(new URL[] { new URL("file://" + jarPath)}, ClassLoader.getSystemClassLoader());
Class classToLoad = Class.forName(packageName, true, child);
String inputParamsString = "{}";
Object obj = classToLoad.newInstance();
Type type = new TypeToken<Map<String, Object>>() {
}.getType();
Map<String, Object> inputs = gson.fromJson(inputParamsString, type);
Method runMethod = obj.getClass().getDeclaredMethod("run", Map.class);
Object result = runMethod.invoke(obj, inputs);
当我 运行 上面的代码时,我得到 DistributedFileSystem.class not found at line,ParquetMetadata readFooter = ParquetFileReader.readFooter(conf, path, ParquetMetadataConverter.NO_FILTER);
我构建了 fat jar,经过验证的 jar 包含 class org.apache.hdfs。DistributedFileSystem.class 存在于 jar 中。
我还验证了 java -cp jarname.jar className.class 正在按预期工作。
下面是我的pom文件,
<?xml version="1.0" encoding="UTF-8"?>
<project xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance"
xmlns="http://maven.apache.org/POM/4.0.0"
xsi:schemaLocation="http://maven.apache.org/POM/4.0.0 http://maven.apache.org/xsd/maven-4.0.0.xsd">
<parent>
<artifactId>aaa</artifactId>
<groupId>bbb</groupId>
<version>0.0.1</version>
</parent>
<modelVersion>4.0.0</modelVersion>
<packaging>jar</packaging>
<artifactId>hdfs-parquet-reader</artifactId>
<dependencies>
<dependency>
<groupId>org.apache.parquet</groupId>
<artifactId>parquet-hadoop</artifactId>
<version>1.9.0</version>
</dependency>
<dependency>
<groupId>org.apache.hadoop</groupId>
<artifactId>hadoop-client</artifactId>
<version>3.1.0</version>
</dependency>
</dependencies>
<build>
<plugins>
<plugin>
<groupId>org.apache.maven.plugins</groupId>
<artifactId>maven-compiler-plugin</artifactId>
<configuration>
<source>8</source>
<target>8</target>
</configuration>
</plugin>
<plugin>
<artifactId>maven-assembly-plugin</artifactId>
<configuration>
<archive>
</archive>
<descriptorRefs>
<descriptorRef>jar-with-dependencies</descriptorRef>
</descriptorRefs>
<!--<finalName>${project.artifactId}-${project.version}-${maven.build.timestamp}</finalName> -->
</configuration>
<executions>
<execution>
<id>make-assembly</id> <!-- this is used for inheritance merges -->
<phase>package</phase> <!-- bind to the packaging phase -->
<goals>
<goal>single</goal>
</goals>
</execution>
</executions>
</plugin>
</plugins>
</build>
</project>
我尝试使用 shaded 插件并构建 shaded jar,但问题仍然存在。
我听说 hadoop-commons 库使用 Thread.currentThread.getClassLoader() 来加载 class 文件,这里似乎有问题。
帮我解决这个问题,
提前致谢。
我自己找到了解决这个问题的方法,
问题在这里
ClassLoader child = new URLClassLoader(new URL[] { new URL("file://" + jarPath)}, ClassLoader.getSystemClassLoader());
我在这里加载系统 class 加载程序,这导致从最终 class 路径中删除依赖库,
我改成了
ClassLoader child = new URLClassLoader(new URL[] { new URL("file://" + jarPath)}, Thread.currentThread().getContextClassLoader());
这对我有用。
我正在尝试使用 java 从远程 HDFS 文件系统读取 parquet 文件。为此,我使用了 parquet-hadoop 库。
我的代码是这样的,
public Map run( Map inputs )
{
...
final Configuration conf = new Configuration();
conf.set("fs.hdfs.impl", org.apache.hadoop.hdfs.DistributedFileSystem.class.getName());
conf.set("fs.file.impl", org.apache.hadoop.fs.LocalFileSystem.class.getName());
conf.set("fs.defaultFS", "hdfs://" + connHostName + ":" + connPort);
conf.set("ipc.client.connect.timeout", "10000");
conf.set("ipc.client.connect.max.retries.on.timeouts", "3");
System.setProperty("hadoop.home.dir", "/");
Path path = new Path(filePath);
ParquetMetadata readFooter = ParquetFileReader.readFooter(conf, path, ParquetMetadataConverter.NO_FILTER);
MessageType schema = readFooter.getFileMetaData().getSchema();
...
}
下面是我正在使用的 Maven 依赖项,
<dependency>
<groupId>org.apache.parquet</groupId>
<artifactId>parquet-hadoop</artifactId>
<version>1.9.0</version>
</dependency>
<dependency>
<groupId>org.apache.hadoop</groupId>
<artifactId>hadoop-client</artifactId>
<version>3.1.0</version>
</dependency>
我还尝试添加 2 个依赖项,hadoop 核心和 hadoop hdfs
当我 运行 上面的 Parquet reader 代码工作正常时,我面临的问题是我 运行 作为反射。
我用它创建了一个 fat jar,并向其他程序提供 Class 名称和 jar,这将 运行 使用反射。
反射代码如下所示,
String packageName = "com.mycompany.hdfs.parquet.Parquet";
String jarPath = "/Users/.../hdfs-parquet-reader/target/hdfs-parquet-reader-0.0.1-jar-with-dependencies.jar";
ClassLoader child = new URLClassLoader(new URL[] { new URL("file://" + jarPath)}, ClassLoader.getSystemClassLoader());
Class classToLoad = Class.forName(packageName, true, child);
String inputParamsString = "{}";
Object obj = classToLoad.newInstance();
Type type = new TypeToken<Map<String, Object>>() {
}.getType();
Map<String, Object> inputs = gson.fromJson(inputParamsString, type);
Method runMethod = obj.getClass().getDeclaredMethod("run", Map.class);
Object result = runMethod.invoke(obj, inputs);
当我 运行 上面的代码时,我得到 DistributedFileSystem.class not found at line,ParquetMetadata readFooter = ParquetFileReader.readFooter(conf, path, ParquetMetadataConverter.NO_FILTER);
我构建了 fat jar,经过验证的 jar 包含 class org.apache.hdfs。DistributedFileSystem.class 存在于 jar 中。
我还验证了 java -cp jarname.jar className.class 正在按预期工作。
下面是我的pom文件,
<?xml version="1.0" encoding="UTF-8"?>
<project xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance"
xmlns="http://maven.apache.org/POM/4.0.0"
xsi:schemaLocation="http://maven.apache.org/POM/4.0.0 http://maven.apache.org/xsd/maven-4.0.0.xsd">
<parent>
<artifactId>aaa</artifactId>
<groupId>bbb</groupId>
<version>0.0.1</version>
</parent>
<modelVersion>4.0.0</modelVersion>
<packaging>jar</packaging>
<artifactId>hdfs-parquet-reader</artifactId>
<dependencies>
<dependency>
<groupId>org.apache.parquet</groupId>
<artifactId>parquet-hadoop</artifactId>
<version>1.9.0</version>
</dependency>
<dependency>
<groupId>org.apache.hadoop</groupId>
<artifactId>hadoop-client</artifactId>
<version>3.1.0</version>
</dependency>
</dependencies>
<build>
<plugins>
<plugin>
<groupId>org.apache.maven.plugins</groupId>
<artifactId>maven-compiler-plugin</artifactId>
<configuration>
<source>8</source>
<target>8</target>
</configuration>
</plugin>
<plugin>
<artifactId>maven-assembly-plugin</artifactId>
<configuration>
<archive>
</archive>
<descriptorRefs>
<descriptorRef>jar-with-dependencies</descriptorRef>
</descriptorRefs>
<!--<finalName>${project.artifactId}-${project.version}-${maven.build.timestamp}</finalName> -->
</configuration>
<executions>
<execution>
<id>make-assembly</id> <!-- this is used for inheritance merges -->
<phase>package</phase> <!-- bind to the packaging phase -->
<goals>
<goal>single</goal>
</goals>
</execution>
</executions>
</plugin>
</plugins>
</build>
</project>
我尝试使用 shaded 插件并构建 shaded jar,但问题仍然存在。
我听说 hadoop-commons 库使用 Thread.currentThread.getClassLoader() 来加载 class 文件,这里似乎有问题。
帮我解决这个问题,
提前致谢。
我自己找到了解决这个问题的方法,
问题在这里
ClassLoader child = new URLClassLoader(new URL[] { new URL("file://" + jarPath)}, ClassLoader.getSystemClassLoader());
我在这里加载系统 class 加载程序,这导致从最终 class 路径中删除依赖库,
我改成了
ClassLoader child = new URLClassLoader(new URL[] { new URL("file://" + jarPath)}, Thread.currentThread().getContextClassLoader());
这对我有用。