有人知道运行Google Colab的存储限制吗?在上传了22 it的zip文件,然后尝试解压缩后,我似乎耗尽了空间,建议使用<~40 it的存储空间。至少这是我运行TPU实例的经验。
发布于 2018-11-20 08:49:46
是的,Colab notebook的本地存储现在大约是40 GiB。查看精确值的一种方法(在Python 3中):
import subprocess
p = subprocess.Popen('df -h', shell=True, stdout=subprocess.PIPE)
print(str(p.communicate()[0], 'utf-8'))然而,:对于大量数据,本地存储不是提供给TPU的最佳方式,TPU不直接连接到运行笔记本的机器。相反,可以考虑将您的大型数据集存储在GCP存储中,并从Colab notebook获取该数据。(此外,Colab本地存储的数量可能会发生变化,并且Colab笔记本本身将在几个小时后过期,并随身携带本地存储。)
看看the canonical TPU Colab notebook吧。底部是一些后续步骤,其中包括一个到Searching Shakespeare with TPUs的链接。notebook中有以下代码片段,它演示了对Colab TPU进行GCP身份验证。它看起来是这样的:
from google.colab import auth
auth.authenticate_user()
if 'COLAB_TPU_ADDR' in os.environ:
TF_MASTER = 'grpc://{}'.format(os.environ['COLAB_TPU_ADDR'])
# Upload credentials to TPU.
with tf.Session(TF_MASTER) as sess:
with open('/content/adc.json', 'r') as f:
auth_info = json.load(f)
tf.contrib.cloud.configure_gcs(sess, credentials=auth_info)
# Now credentials are set for all future sessions on this TPU.
else:
TF_MASTER=''发布于 2019-04-28 21:23:41
目前,colab中的本地存储量取决于所选的硬件加速器运行时类型:
# Hardware accelerator none
!df -h .
Filesystem Size Used Avail Use% Mounted on
overlay 49G 22G 26G 46% /
# Hardware accelerator GPU
!df -h .
Filesystem Size Used Avail Use% Mounted on
overlay 359G 23G 318G 7% /
# Hardware accelerator TPU
!df -h .
Filesystem Size Used Avail Use% Mounted on
overlay 49G 22G 26G 46% /即使你不需要GPU,切换到运行时类型也会为你提供额外的310 of的存储空间。
https://stackoverflow.com/questions/53023372
复制相似问题