我使用Flair库是为了看看微调(单独实现)和嵌入投影之间是否有很大的差异(就结果而言)。我面临的问题涉及到读取结果(在本例中,实验是使用BERT嵌入完成的)。在training.log中,我得到了这个:
2019-10-10 16:27:02,964 Testing using best model ...
2019-10-10 16:27:02,966 loading file best-model.pt
2019-10-10 16:37:23,793 0.7539 0.7539 0.7539
2019-10-10 16:37:23,795
MICRO_AVG: acc 0.605 - f1-score 0.7539
MACRO_AVG: acc 0.5467 - f1-score 0.6925
0 tp: 1420 - fp: 438 - fn: 144 - tn: 363 - precision: 0.7643 - recall: 0.9079 - accuracy: 0.7093 - f1-score: 0.8299
1 tp: 363 - fp: 144 - fn: 438 - tn: 1420 - precision: 0.7160 - recall: 0.4532 - accuracy: 0.3841 - f1-score: 0.5551
2019-10-10 16:37:23,796我的测试数据集包含2365个二进制文本分类任务的实例。最后两行是什么意思?0和1后跟真正的正数、精度、召回率等等?0是什么?什么是1?我还单独加载了最佳模型,并在我的测试数据集上进行了测试,我获得了不同的结果。
任何帮助都将不胜感激。
发布于 2019-10-11 21:49:26
因为,您正在对二进制分类进行微调,精度、召回率和F1度量是评估模型的一种方法,而您看到的任何内容都是对模型的评估。
第一个字符0或1表示类0或类1 (2个类,作为其二进制分类)。对于每一类,它提到了真阳性(tp)、假阳性(Fp)、假阴性(Fn)和真阴性(Tn)的数量。你可以将它们相加,它将等于你的测试集中的样例数量。
tp、tn、fp、fn的简短描述:
对于类0(作为正类):
tp:类0的实际示例数,正确预测为类0
fn:类1的实际示例数,正确预测为类1
fp:类1的实际样例数,错误预测为类0
tn: 0类实际样例数,错误预测为1类
对于第一类的第二行,反之亦然。
https://stackoverflow.com/questions/58337547
复制相似问题