560k) | 2.50 (n = 20) | | Yelp-5 | 29.32 (n = 650k) | 33.54(n = 2.5k) | | Amazon
1.2%,并且较原SOTA平均提升约2%,具体效果如下表: 任务 数据集合 语言 指标 原SOTA SKEP 数据集地址 句子级情感 分类 SST-2 英文 ACC 97.50 97.60 下载地址 Amazon
具有两个类别的Amazon-2包括3,600,000个训练样本和400,000个测试样本。 Amazon-5具有五个类别,包括3,000,000个训练样本和650,000个测试样本。
上面一张表分别展示了 UDA 算法在 IMDb,Yelp-2,Yelp-5,Amazon-2,Amzon-5 以及 DBpedia 这几个数据集上的实验结果。
记录: 分类:GLUE (MNLI, QNLI, STS-B, MRPC, RTE, SST-2, WNLI), RACE, IMDB, Yelp-2, Yelp-5, DBpedia, AG, Amazon