首页
学习
活动
专区
圈层
工具
发布
社区首页 >问答首页 >Google Colab存储

Google Colab存储
EN

Stack Overflow用户
提问于 2018-10-27 23:19:07
回答 2查看 12.9K关注 0票数 8

有人知道运行Google Colab的存储限制吗?在上传了22 it的zip文件,然后尝试解压缩后,我似乎耗尽了空间,建议使用<~40 it的存储空间。至少这是我运行TPU实例的经验。

EN

回答 2

Stack Overflow用户

回答已采纳

发布于 2018-11-20 08:49:46

是的,Colab notebook的本地存储现在大约是40 GiB。查看精确值的一种方法(在Python 3中):

代码语言:javascript
复制
import subprocess
p = subprocess.Popen('df -h', shell=True, stdout=subprocess.PIPE)
print(str(p.communicate()[0], 'utf-8'))

然而,对于大量数据,本地存储不是提供给TPU的最佳方式,TPU不直接连接到运行笔记本的机器。相反,可以考虑将您的大型数据集存储在GCP存储中,并从Colab notebook获取该数据。(此外,Colab本地存储的数量可能会发生变化,并且Colab笔记本本身将在几个小时后过期,并随身携带本地存储。)

看看the canonical TPU Colab notebook吧。底部是一些后续步骤,其中包括一个到Searching Shakespeare with TPUs的链接。notebook中有以下代码片段,它演示了对Colab TPU进行GCP身份验证。它看起来是这样的:

代码语言:javascript
复制
from google.colab import auth
auth.authenticate_user()

if 'COLAB_TPU_ADDR' in os.environ:
  TF_MASTER = 'grpc://{}'.format(os.environ['COLAB_TPU_ADDR'])

  # Upload credentials to TPU.
  with tf.Session(TF_MASTER) as sess:    
    with open('/content/adc.json', 'r') as f:
      auth_info = json.load(f)
    tf.contrib.cloud.configure_gcs(sess, credentials=auth_info)
  # Now credentials are set for all future sessions on this TPU.
else:
  TF_MASTER=''
票数 11
EN

Stack Overflow用户

发布于 2019-04-28 21:23:41

目前,colab中的本地存储量取决于所选的硬件加速器运行时类型:

代码语言:javascript
复制
# Hardware accelerator none
!df -h .
Filesystem      Size  Used Avail Use% Mounted on
overlay          49G   22G   26G  46% /

# Hardware accelerator GPU
!df -h .
Filesystem      Size  Used Avail Use% Mounted on
overlay         359G   23G  318G   7% /

# Hardware accelerator TPU
!df -h .
Filesystem      Size  Used Avail Use% Mounted on
overlay          49G   22G   26G  46% /

即使你不需要GPU,切换到运行时类型也会为你提供额外的310 of的存储空间。

票数 13
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/53023372

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档