我们已经为一些回归任务训练了一个额外的树模型。我们的模型由3个额外的树组成,每个树有200棵深度为30的树。在3棵额外的树的顶部,我们使用了一个脊回归。
我们训练了我们的模型几个小时,pickled训练模型(整个类对象),供以后使用。但是,节省训练的型号太大了,大约140 GB!
是否有办法减少保存的模型的大小?在pickle中是否有任何可以帮助的配置,或者对pickle有什么替代方案?
发布于 2017-04-24 15:27:34
在最好的情况下(二叉树),假设每个节点只需要一个字节来存储,那么3 * 200 * (2^30 - 1) = 644245094400节点或434Gb就可以了。我认为140 in是一个相当不错的大小相比较。
发布于 2017-11-01 20:09:16
您可以尝试使用带有压缩参数的joblib。
from sklearn.externals import joblib
joblib.dump(your_algo, 'pickle_file_name.pkl', compress=3)压缩-从0到9。更高的值意味着更多的压缩,但也更慢的读和写时间。使用3的值通常是一个很好的折衷方案。
您可以使用python标准压缩模块zlib、gzip、bz2、lzma和xz。若要使用该格式,只需指定具有特定扩展的格式。
示例:
joblib.dump(obj, 'your_filename.pkl.z') # zlib更多信息,请参阅链接。
https://stackoverflow.com/questions/43591621
复制相似问题