首页
学习
活动
专区
圈层
工具
发布
社区首页 >问答首页 >HuggingFace TFRobertaModel详细摘要

HuggingFace TFRobertaModel详细摘要
EN

Stack Overflow用户
提问于 2022-06-27 19:03:31
回答 1查看 123关注 0票数 1
代码语言:javascript
复制
from transformers import RobertaTokenizer, TFRobertaModel
import tensorflow as tf

tokenizer = RobertaTokenizer.from_pretrained("roberta-base")
model = TFRobertaModel.from_pretrained("roberta-base")

我需要这个HuggingFace TFRobertaModel()的详细图层摘要,这样我就可以可视化形状、图层并在需要时进行定制。然而,当我这样做:model.summary()时,它只是在一个层中显示所有内容。我试着挖掘它的不同属性,但无法获得详细的图层摘要。是否可以这样做呢?

代码语言:javascript
复制
Model: "tf_roberta_model_2"
_________________________________________________________________
Layer (type)                 Output Shape              Param #   
=================================================================
roberta (TFRobertaMainLayer) multiple                  124645632 
=================================================================
Total params: 124,645,632
Trainable params: 124,645,632
Non-trainable params: 0
_________________________________________________________________

此外,还有一个相关的问题在HuggingFace论坛上还没有得到答复。

EN

回答 1

Stack Overflow用户

回答已采纳

发布于 2022-06-28 08:11:20

不完全是一个模型摘要,但您可以打印如下所示的层:

代码语言:javascript
复制
from transformers import RobertaTokenizer, TFRobertaModel
import tensorflow as tf

tokenizer = RobertaTokenizer.from_pretrained("roberta-base")
model = TFRobertaModel.from_pretrained("roberta-base")

def print_layers(l, model):
  for idx, s in enumerate(l.submodules):
    if s.submodules:
      print_layers(s, model)
    print(s)

TFRobertaMainLayer = model.layers[0]   
print_layers(TFRobertaMainLayer, model)

您还可以使用s.weights来获取每个层的权重。

票数 1
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/72777174

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档