我正在尝试使用BERT进行情感分析,但我怀疑我做错了什么。在我的代码中,我使用bert-for-tf2对bert进行了微调,但在1个时期之后,我获得了42%的准确率,而一个简单的GRU模型获得了大约73%的准确率。我应该做些什么才能有效地使用BERT。import bert-for-tf2 #gets imported as bert but relabeled for clarity
model_name = "uncased_L-12_H-768_A-12
我正在尝试保存一个调得很好的bert模型。我已经正确地运行了代码-它工作得很好,并且在ipython控制台中,我能够调用getPrediction并让它得到结果。我保存了我的权重文件(最高为model.ckpt-33.data-00000-of-00001 我不知道我将如何保存模型以供重用。 我正在使用bert-tensorflow。__version__)
import bert
from bert import r
您好,我希望使用BERT模型为一个单词生成相似的单词,这与我们在gensim中使用的生成most_similar单词的方法相同,我发现该方法如下: from transformers import BertTokenizer, BertModel
model = BertModel.from_pretrained('bert-base-u