I/O 访问文件时出错:/dbfs/my_hyper.hyper: SIGBUS
I/O error while accessing file:/dbfs/my_hyper.hyper: SIGBUS
我正在尝试将 Tableau 的 .hyper
文件写入 Databricks 中的目录。
然而它产生
The database "hyper.file:/dbfs/my_hyper.hyper" could not be created: I/O error while accessing file:/dbfs/my_hyper.hyper: SIGBUS
为什么会这样?
我在写入其他文件类型时完全没有遇到任何问题,但这个问题仍然存在 .hyper
个文件。
这是权限问题还是错误?
请指教
我很乐意提供更多信息
发生这种情况很可能是因为 DBFS 不支持随机写入(参见 docs for the list of limitations)。解决方法是写入本地磁盘,例如 /tmp/
,然后使用 dbutils.fs.cp
或 dbutils.fs.mv
命令写入 copy/move 文件(参见文档)
我正在尝试将 Tableau 的 .hyper
文件写入 Databricks 中的目录。
然而它产生
The database "hyper.file:/dbfs/my_hyper.hyper" could not be created: I/O error while accessing file:/dbfs/my_hyper.hyper: SIGBUS
为什么会这样?
我在写入其他文件类型时完全没有遇到任何问题,但这个问题仍然存在 .hyper
个文件。
这是权限问题还是错误?
请指教
我很乐意提供更多信息
发生这种情况很可能是因为 DBFS 不支持随机写入(参见 docs for the list of limitations)。解决方法是写入本地磁盘,例如 /tmp/
,然后使用 dbutils.fs.cp
或 dbutils.fs.mv
命令写入 copy/move 文件(参见文档)