首页
学习
活动
专区
圈层
工具
发布
社区首页 >问答首页 >受过训练的机器学习模型太大了

受过训练的机器学习模型太大了
EN

Stack Overflow用户
提问于 2017-04-24 15:04:51
回答 2查看 10.1K关注 0票数 13

我们已经为一些回归任务训练了一个额外的树模型。我们的模型由3个额外的树组成,每个树有200棵深度为30的树。在3棵额外的树的顶部,我们使用了一个脊回归。

我们训练了我们的模型几个小时,pickled训练模型(整个类对象),供以后使用。但是,节省训练的型号太大了,大约140 GB!

是否有办法减少保存的模型的大小?在pickle中是否有任何可以帮助的配置,或者对pickle有什么替代方案?

EN

回答 2

Stack Overflow用户

回答已采纳

发布于 2017-04-24 15:27:34

在最好的情况下(二叉树),假设每个节点只需要一个字节来存储,那么3 * 200 * (2^30 - 1) = 644245094400节点或434Gb就可以了。我认为140 in是一个相当不错的大小相比较。

票数 4
EN

Stack Overflow用户

发布于 2017-11-01 20:09:16

您可以尝试使用带有压缩参数的joblib

代码语言:javascript
复制
from sklearn.externals import joblib
joblib.dump(your_algo, 'pickle_file_name.pkl', compress=3)

压缩-从0到9。更高的值意味着更多的压缩,但也更慢的读和写时间。使用3的值通常是一个很好的折衷方案。

您可以使用python标准压缩模块zlib、gzip、bz2、lzma和xz。若要使用该格式,只需指定具有特定扩展的格式。

示例:

代码语言:javascript
复制
joblib.dump(obj, 'your_filename.pkl.z')   # zlib

更多信息,请参阅链接

票数 23
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/43591621

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档