我正在google colab上训练一个自动编码器(keras)。然而,我有25000个输入图像和25000个输出图像。我试着这样做: 1-每次将大文件从google驱动器复制到colab (需要5-6个小时)。2-将集合转换为numpy数组,但当对图像进行归一化时,大小变得更大(例如从7 7GB到24 7GB),然后我无法将其放入ram内存中。3-我无法压缩和解压我的数据。所以,如果有人知道如何在没有大文件(24 if )的情况下将其转换为numpy数组(并对其进行归一化)。
发布于 2020-12-11 23:40:42
我通常做的是:
.zip文件加载到您的colab中的Drivefrom zipfile import ZipFile
with ZipFile('data.zip', 'r') as zip:
zip.extractall()flow_from_directory,或者创建你自己的generatormoel.fit(train_generator, steps_per_epoch = ntrain // batch_size,
epochs=epochs,validation_data=val_generator,
validation_steps= nval // batch_size)使用ntrain和nval,训练和验证数据集中的图像数量
https://stackoverflow.com/questions/65253135
复制相似问题