使用 HDF5 附加模拟数据

Append simulation data using HDF5

我目前运行模拟了几次,想保存这些模拟的结果,以便它们可以用于可视化。

模拟 运行 100 次,每次模拟都会生成大约 100 万个数据点(即 100 万集的 100 万个值),我现在想有效地存储这些数据。每个情节的目标是生成所有 100 次模拟中每个值的平均值。

我的 main 文件如下所示:

# Defining the test simulation environment
def test_simulation:
    environment = environment(
            periods = 1000000
            parameter_x = ...
            parameter_y = ...
      )

    # Defining the simulation
    environment.simulation()

    # Save simulation data
    hf = h5py.File('runs/simulation_runs.h5', 'a')
    hf.create_dataset('data', data=environment.value_history, compression='gzip', chunks=True)
    hf.close()

# Run the simulation 100 times
for i in range(100):
    print(f'--- Iteration {i} ---')
    test_simulation()

value_history是在game()内生成的,即根据:

将值连续附加到一个空列表中
def simulation:
    for episode in range(periods):
        value = doSomething()
        self.value_history.append(value)

现在我在进行下一次模拟时收到以下错误消息:

ValueError: Unable to create dataset (name already exists)

我知道当前代码不断尝试创建新文件并生成错误,因为它已经存在。现在我想重新打开在第一次模拟中创建的文件,附加下一次模拟的数据并再次保存。

下面的例子展示了如何将所有这些想法结合在一起。它创建 2 个文件:

  1. 在第一个循环中使用 maxshape() 参数创建 1 个可调整大小的数据集,然后在后续循环中使用 dataset.resize() -- 输出是 simulation_runs1.h5
  2. 为每个模拟创建一个唯一的数据集——输出是 simulation_runs2.h5.

我为“模拟数据”创建了一个简单的 100x100 NumPy 数组 运行doms,运行 模拟了 10 次。它们是变量,因此您可以增加到更大的值以确定哪种方法对您的数据更好(更快)。您可能还会发现在 1M 时间段内保存 1M 数据点的内存限制。
注1:如果无法将所有数据保存在系统内存中,可以将仿真结果增量保存到H5文件中。只是有点复杂。
注2:我添加了一个mode变量来控制是为第一次模拟创建新文件(i==0)还是以追加模式打开现有文件以供后续模拟使用。

import h5py
import numpy as np

# Create some psuedo-test data
def test_simulation(i):
    periods = 100
    times = 100

    # Define the simulation with some random data
    val_hist = np.random.random(periods*times).reshape(periods,times)    
    a0, a1 = val_hist.shape[0], val_hist.shape[1]
    
    if i == 0:
        mode='w'
    else:
        mode='a'
        
    # Save simulation data (resize dataset)
    with h5py.File('runs/simulation_runs1.h5', mode) as hf:
        if 'data' not in list(hf.keys()):
            print('create new dataset')
            hf.create_dataset('data', shape=(1,a0,a1), maxshape=(None,a0,a1), data=val_hist, 
                              compression='gzip', chunks=True)
        else:
            print('resize existing dataset')
            d0 = hf['data'].shape[0]
            hf['data'].resize( (d0+1,a0,a1) )
            hf['data'][d0:d0+1,:,:] = val_hist
 
    # Save simulation data (unique datasets)
    with h5py.File('runs/simulation_runs2.h5', mode) as hf:
        hf.create_dataset(f'data_{i:03}', data=val_hist, 
                          compression='gzip', chunks=True)

# Run the simulation 100 times
for i in range(10):
    print(f'--- Iteration {i} ---')
    test_simulation(i)