"remoteContext object has no attribute"
"remoteContext object has no attribute"
我是 运行 Databrick 云中的 Spark 1.4。我将一个文件加载到我的 S3 实例中并挂载了它。安装工作。但是我在创建 RDD 时遇到了问题:
dbutils.fs.mount("s3n://%s:%s@%s" % (ACCESS_KEY, SECRET_KEY, AWS_BUCKET_NAME), "/mnt/%s" % MOUNT_NAME)
有什么想法吗?
sc.parallelize([1,2,3])
rdd = sc.textFiles("/mnt/GDELT_2014_EVENTS/GDELT_2014.csv")
您在将数据装入 dbfs 方面做得很好,这很棒,看起来您只是有一个小错字。我怀疑您想使用 sc.textFile
而不是 sc.textFiles
。祝你在 Spark 的冒险中好运。
我是 运行 Databrick 云中的 Spark 1.4。我将一个文件加载到我的 S3 实例中并挂载了它。安装工作。但是我在创建 RDD 时遇到了问题:
dbutils.fs.mount("s3n://%s:%s@%s" % (ACCESS_KEY, SECRET_KEY, AWS_BUCKET_NAME), "/mnt/%s" % MOUNT_NAME)
有什么想法吗?
sc.parallelize([1,2,3])
rdd = sc.textFiles("/mnt/GDELT_2014_EVENTS/GDELT_2014.csv")
您在将数据装入 dbfs 方面做得很好,这很棒,看起来您只是有一个小错字。我怀疑您想使用 sc.textFile
而不是 sc.textFiles
。祝你在 Spark 的冒险中好运。