Caused by: java.lang.UnsatisfiedLinkError: org.apache.hadoop.io.nativeio.NativeIO$Windows.access0(Ljava/lang/String;I)Z
Caused by: java.lang.UnsatisfiedLinkError: org.apache.hadoop.io.nativeio.NativeIO$Windows.access0(Ljava/lang/String;I)Z
我在尝试将 txt 文件写入 windows 中的本地路径时遇到此错误。
错误:
由以下原因引起:java.lang.UnsatisfiedLinkError:org.apache.hadoop.io.nativeio.NativeIO$Windows.access0(Ljava/lang/String;I)Z
- Spark、hadoop 版本:spark-3.0.3-bin-hadoop2.7.
- winutils放在C:\winutils\bin
- hadoop.dll放在C:\winutils\bin和c:\System32
- 环境变量设置
HADOOP_HOME C:\winutils
路径 %HADOOP_HOME%\bin
- 已尝试重新启动
我找到以下原因和解决方案:
根本原因:
Gradle 依赖于更高版本的 spark。我安装了 spark 3.0.3 但这里是 3.2.0
实施 'org.apache.spark:spark-core_2.13:3.2.0'
修复:
替换为
实施 'org.apache.spark:spark-core_2.12:3.0.3'
我在尝试将 txt 文件写入 windows 中的本地路径时遇到此错误。
错误: 由以下原因引起:java.lang.UnsatisfiedLinkError:org.apache.hadoop.io.nativeio.NativeIO$Windows.access0(Ljava/lang/String;I)Z
- Spark、hadoop 版本:spark-3.0.3-bin-hadoop2.7.
- winutils放在C:\winutils\bin
- hadoop.dll放在C:\winutils\bin和c:\System32
- 环境变量设置 HADOOP_HOME C:\winutils 路径 %HADOOP_HOME%\bin
- 已尝试重新启动
我找到以下原因和解决方案:
根本原因: Gradle 依赖于更高版本的 spark。我安装了 spark 3.0.3 但这里是 3.2.0 实施 'org.apache.spark:spark-core_2.13:3.2.0'
修复: 替换为 实施 'org.apache.spark:spark-core_2.12:3.0.3'