MemoryError: Unable to allocate 115. GiB for an array with shape (1122, 1122, 12288) and data type float64
MemoryError: Unable to allocate 115. GiB for an array with shape (1122, 1122, 12288) and data type float64
我正在尝试传递一个函数,该函数 returns 是一个扁平化的图像和标签数组,而我的 OS 是 windows 10。此外,当我尝试调用该函数时,我标题中描述的错误
MemoryError: Unable to allocate 115. GiB for an array with shape (1122, 1122, 12288) and data type float64
我想做的是:我想在函数内部从带有关键点的数据集中提取特征,并使用 train_test_split 作为我的数据集,但即使我尝试用关键点展平图像,它会给我带来错误,唯一的展平方法是没有关键点的相同图像。
我是这样尝试的:
def load_image_files(fullpath, dimension=(35, 35)):
flat_data = []
orb = cv2.ORB_create(edgeThreshold=1, nfeatures=22)
key_points = [cv2.KeyPoint(64, 9, 10),
cv2.KeyPoint(107, 6, 10),
cv2.KeyPoint(171, 10, 10)]
kp, des = orb.compute(imageList, key_points)
kparray = cv2.drawKeypoints(imageList, kp, None, flags=cv2.DRAW_MATCHES_FLAGS_DRAW_RICH_KEYPOINTS);
img_resized = resize(kparray, dimension, anti_aliasing=True, mode='reflect')
img_resized = img_resized.flatten()
flat_data.append(img_resized)
images.append(flat_data)
flat_data = np.array(flat_data)
images = np.array(images)
return Bunch(data=flat_data,
images=images)
在您的 function.You 中,您正在将所有展平图像附加到一个列表中,这会导致此内存 error.Instead 您可以使用 dask 数组来存储 them.The dask 数组使用用于存储非常大的数据以容纳 memory.Dask 的硬盘是一个类似于 spark 的 python 库,专为大数据而设计。
我正在尝试传递一个函数,该函数 returns 是一个扁平化的图像和标签数组,而我的 OS 是 windows 10。此外,当我尝试调用该函数时,我标题中描述的错误
MemoryError: Unable to allocate 115. GiB for an array with shape (1122, 1122, 12288) and data type float64
我想做的是:我想在函数内部从带有关键点的数据集中提取特征,并使用 train_test_split 作为我的数据集,但即使我尝试用关键点展平图像,它会给我带来错误,唯一的展平方法是没有关键点的相同图像。
我是这样尝试的:
def load_image_files(fullpath, dimension=(35, 35)):
flat_data = []
orb = cv2.ORB_create(edgeThreshold=1, nfeatures=22)
key_points = [cv2.KeyPoint(64, 9, 10),
cv2.KeyPoint(107, 6, 10),
cv2.KeyPoint(171, 10, 10)]
kp, des = orb.compute(imageList, key_points)
kparray = cv2.drawKeypoints(imageList, kp, None, flags=cv2.DRAW_MATCHES_FLAGS_DRAW_RICH_KEYPOINTS);
img_resized = resize(kparray, dimension, anti_aliasing=True, mode='reflect')
img_resized = img_resized.flatten()
flat_data.append(img_resized)
images.append(flat_data)
flat_data = np.array(flat_data)
images = np.array(images)
return Bunch(data=flat_data,
images=images)
在您的 function.You 中,您正在将所有展平图像附加到一个列表中,这会导致此内存 error.Instead 您可以使用 dask 数组来存储 them.The dask 数组使用用于存储非常大的数据以容纳 memory.Dask 的硬盘是一个类似于 spark 的 python 库,专为大数据而设计。