我无法运行文档中所示的FastText量化。具体地说,如小抄页面底部所示:
https://fasttext.cc/docs/en/cheatsheet.html
当我尝试在我的训练模型“model.bin”上运行量化时:
./fasttext quantize -output model将以下错误输出到shell:
Empty input or output path.我已经用最新代码(2018年9月14日)和旧代码(2018年6月21日)的构建重现了这个问题。由于记录的命令语法不起作用,我尝试添加一个输入参数:
./fasttext quantize -input [file] -output model其中file是我的训练数据或训练过的模型。不幸的是,两次尝试都导致了分段错误,并且没有来自FastText的错误消息。
量化FastText模型的正确命令语法是什么?此外,是否有可能在一次FastText运行中既训练模型又量化模型?
发布于 2019-03-21 21:00:13
Python中的解决方案:
# Quantize the model with retraining
model.quantize(input=train_data, qnorm=True, retrain=True, cutoff=200000)
# Save quantized model
model.save_model("model_quantized.bin")发布于 2019-07-11 14:04:58
我试过这个方法:
./fasttext quantize -input <training set> -output <model name (no suffix) -[options]发布于 2019-03-21 20:35:13
这是包含在quantization-example.sh中的示例
./fasttext quantize -output "${RESULTDIR}/dbpedia" -input "${DATADIR}/dbpedia.train" -qnorm -retrain -epoch 1 -cuto$https://stackoverflow.com/questions/52428575
复制相似问题