首页
学习
活动
专区
圈层
工具
发布
社区首页 >问答首页 >bert_en_uncased_preprocess是如何制作的?比如通过训练神经网络或者手动编码?

bert_en_uncased_preprocess是如何制作的?比如通过训练神经网络或者手动编码?
EN

Stack Overflow用户
提问于 2021-06-04 09:20:02
回答 1查看 82关注 0票数 1

我刚开始深造,遇到了伯特。我尝试了small_bert/bert_en_uncased_L-4_H-512_A-8,就像Tensorflow教程所做的那样,结果非常惊人。我想深入挖掘,并想知道相应的bert_en_uncased_preprocess是如何制作的。

据我所知,它完成了所有那些WordPiece标记化工作,因此它应该包含一些编码,而不仅仅是培训。https://tfhub.dev/tensorflow/bert_en_uncased_preprocess/3提供SavedModel。有什么源代码或类似的东西吗?一般情况下是怎么做的?

它与使用无关。它的用法很好,很清楚。目的是为了学习。

提前谢谢。

EN

回答 1

Stack Overflow用户

发布于 2022-04-18 09:51:50

该对象由Tensorflow示范园中的NLP模块在预处理函数中创建。

代码语言:javascript
复制
preprocessor = hub.load("https://tfhub.dev/tensorflow/bert_en_uncased_preprocess/3")

预处理器的tokenize函数由BertTokenizer类实现,bert_pack_inputs函数由BertPackInputs类实现。

这些urls将引导您找到源代码。

票数 0
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/67834710

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档