是否可以使用 collective I/O 创建 HDF5 虚拟数据集 (VDS)?
Is it possible to create an HDF5 virtual dataset (VDS) using collective I/O?
我正在尝试 link 将四个不同的 hdf5 文件集中到一个虚拟数据集 (VDS) 中。总而言之,我的意思是每个进程都为自己的本地文件调用 H5Pset_virtual(...) 。是否可以通过这种方式创建 VDS 文件?我通过 HDF5 组搜索了很多 VDS 教程和文档(如 this or this),但找不到这样的功能或示例。
不,在当前版本的 HDF5 (1.10.1) 中,进程之间没有元数据信息的通信。所以,如果你想使用 VDS,一个进程应该负责创建 VDS 文件。
我正在尝试 link 将四个不同的 hdf5 文件集中到一个虚拟数据集 (VDS) 中。总而言之,我的意思是每个进程都为自己的本地文件调用 H5Pset_virtual(...) 。是否可以通过这种方式创建 VDS 文件?我通过 HDF5 组搜索了很多 VDS 教程和文档(如 this or this),但找不到这样的功能或示例。
不,在当前版本的 HDF5 (1.10.1) 中,进程之间没有元数据信息的通信。所以,如果你想使用 VDS,一个进程应该负责创建 VDS 文件。