我正在尝试使用BERT进行情感分析,但我怀疑我做错了什么。在我的代码中,我使用bert-for-tf2对bert进行了微调,但在1个时期之后,我获得了42%的准确率,而一个简单的GRU模型获得了大约73%的准确率。我应该做些什么才能有效地使用BERT。import bert-for-tf2 #gets imported as bert but relabeled for claritymo
我最近一直在尝试堆叠语言模型,并注意到一些有趣的事情: BERT和XLNet的输出嵌入与输入嵌入不同。例如,下面的代码片段:tok = transformers.BertTokenizer.from_pretrained("bert-base-cased")
sent = torch.tensor(tok.encode("I we