首页
学习
活动
专区
圈层
工具
发布
社区首页 >问答首页 >使用Apex数据加载器时发生Salesforce批量上载错误:超出存储限制

使用Apex数据加载器时发生Salesforce批量上载错误:超出存储限制
EN

Stack Overflow用户
提问于 2012-01-04 13:29:18
回答 2查看 3.2K关注 0票数 1

当我尝试批量上传25,000条自定义(employee)对象的记录时,我收到错误消息“超过了存储限制”。我已经确保salesforce中没有employee对象(使用数据加载器delete)。我确保回收站已经清空了。在使用数据加载器时,我的批处理大小是100

现在,当我使用java客户端和批量上传API尝试相同的操作时,上传工作正常,即使在插入100,000条记录时也没有错误

有人知道为什么我只在使用using数据加载器时出现这个错误吗?

EN

回答 2

Stack Overflow用户

发布于 2012-01-04 16:34:18

也有可能是其他对象、文档和附件占据了整个空间。如果您可以检查总共有多少空间可用,以及还剩下多少空间,这将会有所帮助。要执行此操作,请转至设置>管理设置>数据管理>存储使用。此屏幕将向您提供有关哪个对象有多少条记录和消耗多少字节的高级详细信息。

票数 0
EN

Stack Overflow用户

发布于 2012-01-05 13:54:36

我在两种情况下都超过了存储限制(使用批量API和dataloader)。我想我用bulk API很幸运。昨天,我无法使用批量API重复插入25k条记录。这两种方法都以超过可用5MB大关的不同百分比失败。产生混淆的原因是,在超出存储空间之后,不会立即出现“存储超出错误”。它可能出现在使用了15MB或100MB(超过默认可用空间5MB)之后。

结论:一旦超出分配给该用户帐户的数据存储空间,无论使用批量api或apex数据加载器进行插入,都会出现超出存储空间的错误。人们需要购买更多的存储空间!谢谢Sameer

票数 0
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/8722422

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档