不完整的 HDFS URI,没有主机,altohugh 文件确实存在

Incomplete HDFS URI, no host, altohugh file does exist

我正在尝试使用以下代码通过 pyspark 访问我在 hdfs 中的文件:

spark = SparkSession.builder.appName("MongoDBIntegration").getOrCreate()
receipt = spark.read.json("hdfs:///bigdata/2.json")

我得到一个错误 Incomplete HDFS URI, no host: hdfs:///bigdata/2.json

但是如果我写命令 hdfs dfs -cat /bigdata/1.json 它会打印我的文件

错误消息说您没有在 HDFS URI 中指定主机。

尝试将 URI 更改为:

hdfs://<HDFS_HOST>:<HDFS_PORT>/bigdata/2.json