使用 HDF5 附加模拟数据
Append simulation data using HDF5
我目前运行模拟了几次,想保存这些模拟的结果,以便它们可以用于可视化。
模拟 运行 100 次,每次模拟都会生成大约 100 万个数据点(即 100 万集的 100 万个值),我现在想有效地存储这些数据。每个情节的目标是生成所有 100 次模拟中每个值的平均值。
我的 main
文件如下所示:
# Defining the test simulation environment
def test_simulation:
environment = environment(
periods = 1000000
parameter_x = ...
parameter_y = ...
)
# Defining the simulation
environment.simulation()
# Save simulation data
hf = h5py.File('runs/simulation_runs.h5', 'a')
hf.create_dataset('data', data=environment.value_history, compression='gzip', chunks=True)
hf.close()
# Run the simulation 100 times
for i in range(100):
print(f'--- Iteration {i} ---')
test_simulation()
value_history
是在game()
内生成的,即根据:
将值连续附加到一个空列表中
def simulation:
for episode in range(periods):
value = doSomething()
self.value_history.append(value)
现在我在进行下一次模拟时收到以下错误消息:
ValueError: Unable to create dataset (name already exists)
我知道当前代码不断尝试创建新文件并生成错误,因为它已经存在。现在我想重新打开在第一次模拟中创建的文件,附加下一次模拟的数据并再次保存。
下面的例子展示了如何将所有这些想法结合在一起。它创建 2 个文件:
- 在第一个循环中使用
maxshape()
参数创建 1 个可调整大小的数据集,然后在后续循环中使用 dataset.resize()
-- 输出是
simulation_runs1.h5
- 为每个模拟创建一个唯一的数据集——输出是
simulation_runs2.h5
.
我为“模拟数据”创建了一个简单的 100x100 NumPy 数组 运行doms,运行 模拟了 10 次。它们是变量,因此您可以增加到更大的值以确定哪种方法对您的数据更好(更快)。您可能还会发现在 1M 时间段内保存 1M 数据点的内存限制。
注1:如果无法将所有数据保存在系统内存中,可以将仿真结果增量保存到H5文件中。只是有点复杂。
注2:我添加了一个mode
变量来控制是为第一次模拟创建新文件(i==0
)还是以追加模式打开现有文件以供后续模拟使用。
import h5py
import numpy as np
# Create some psuedo-test data
def test_simulation(i):
periods = 100
times = 100
# Define the simulation with some random data
val_hist = np.random.random(periods*times).reshape(periods,times)
a0, a1 = val_hist.shape[0], val_hist.shape[1]
if i == 0:
mode='w'
else:
mode='a'
# Save simulation data (resize dataset)
with h5py.File('runs/simulation_runs1.h5', mode) as hf:
if 'data' not in list(hf.keys()):
print('create new dataset')
hf.create_dataset('data', shape=(1,a0,a1), maxshape=(None,a0,a1), data=val_hist,
compression='gzip', chunks=True)
else:
print('resize existing dataset')
d0 = hf['data'].shape[0]
hf['data'].resize( (d0+1,a0,a1) )
hf['data'][d0:d0+1,:,:] = val_hist
# Save simulation data (unique datasets)
with h5py.File('runs/simulation_runs2.h5', mode) as hf:
hf.create_dataset(f'data_{i:03}', data=val_hist,
compression='gzip', chunks=True)
# Run the simulation 100 times
for i in range(10):
print(f'--- Iteration {i} ---')
test_simulation(i)
我目前运行模拟了几次,想保存这些模拟的结果,以便它们可以用于可视化。
模拟 运行 100 次,每次模拟都会生成大约 100 万个数据点(即 100 万集的 100 万个值),我现在想有效地存储这些数据。每个情节的目标是生成所有 100 次模拟中每个值的平均值。
我的 main
文件如下所示:
# Defining the test simulation environment
def test_simulation:
environment = environment(
periods = 1000000
parameter_x = ...
parameter_y = ...
)
# Defining the simulation
environment.simulation()
# Save simulation data
hf = h5py.File('runs/simulation_runs.h5', 'a')
hf.create_dataset('data', data=environment.value_history, compression='gzip', chunks=True)
hf.close()
# Run the simulation 100 times
for i in range(100):
print(f'--- Iteration {i} ---')
test_simulation()
value_history
是在game()
内生成的,即根据:
def simulation:
for episode in range(periods):
value = doSomething()
self.value_history.append(value)
现在我在进行下一次模拟时收到以下错误消息:
ValueError: Unable to create dataset (name already exists)
我知道当前代码不断尝试创建新文件并生成错误,因为它已经存在。现在我想重新打开在第一次模拟中创建的文件,附加下一次模拟的数据并再次保存。
下面的例子展示了如何将所有这些想法结合在一起。它创建 2 个文件:
- 在第一个循环中使用
maxshape()
参数创建 1 个可调整大小的数据集,然后在后续循环中使用dataset.resize()
-- 输出是simulation_runs1.h5
- 为每个模拟创建一个唯一的数据集——输出是
simulation_runs2.h5
.
我为“模拟数据”创建了一个简单的 100x100 NumPy 数组 运行doms,运行 模拟了 10 次。它们是变量,因此您可以增加到更大的值以确定哪种方法对您的数据更好(更快)。您可能还会发现在 1M 时间段内保存 1M 数据点的内存限制。
注1:如果无法将所有数据保存在系统内存中,可以将仿真结果增量保存到H5文件中。只是有点复杂。
注2:我添加了一个mode
变量来控制是为第一次模拟创建新文件(i==0
)还是以追加模式打开现有文件以供后续模拟使用。
import h5py
import numpy as np
# Create some psuedo-test data
def test_simulation(i):
periods = 100
times = 100
# Define the simulation with some random data
val_hist = np.random.random(periods*times).reshape(periods,times)
a0, a1 = val_hist.shape[0], val_hist.shape[1]
if i == 0:
mode='w'
else:
mode='a'
# Save simulation data (resize dataset)
with h5py.File('runs/simulation_runs1.h5', mode) as hf:
if 'data' not in list(hf.keys()):
print('create new dataset')
hf.create_dataset('data', shape=(1,a0,a1), maxshape=(None,a0,a1), data=val_hist,
compression='gzip', chunks=True)
else:
print('resize existing dataset')
d0 = hf['data'].shape[0]
hf['data'].resize( (d0+1,a0,a1) )
hf['data'][d0:d0+1,:,:] = val_hist
# Save simulation data (unique datasets)
with h5py.File('runs/simulation_runs2.h5', mode) as hf:
hf.create_dataset(f'data_{i:03}', data=val_hist,
compression='gzip', chunks=True)
# Run the simulation 100 times
for i in range(10):
print(f'--- Iteration {i} ---')
test_simulation(i)