I/O 访问文件时出错:/dbfs/my_hyper.hyper: SIGBUS

I/O error while accessing file:/dbfs/my_hyper.hyper: SIGBUS

我正在尝试将 Tableau 的 .hyper 文件写入 Databricks 中的目录。

然而它产生

The database "hyper.file:/dbfs/my_hyper.hyper" could not be created: I/O error while accessing file:/dbfs/my_hyper.hyper: SIGBUS

为什么会这样? 我在写入其他文件类型时完全没有遇到任何问题,但这个问题仍然存在 .hyper 个文件。

这是权限问题还是错误?

请指教

我很乐意提供更多信息

发生这种情况很可能是因为 DBFS 不支持随机写入(参见 docs for the list of limitations)。解决方法是写入本地磁盘,例如 /tmp/,然后使用 dbutils.fs.cpdbutils.fs.mv 命令写入 copy/move 文件(参见文档)