当我微调一个预先训练过的resnet152模型时,我似乎失去了我想要访问的所有命名层。我已经包括了简单的调优模型代码,以及预先训练和调优的命名层的打印,我想要维护这些层名,这样我就可以在类激活映射中可视化它们的输出。
码
class ConvNet3(nn.Module):
def init(self):
super().init()
model = models.resnet152(pretrained=True)
model.fc = nn.Linear(2048, 10)
self.model = model
def forward(self, x):
return self.model(x) # [batch_size, 10]
import torchvision.models as models
model = ConvNet3().eval()
print([n for n, _ in model.named_children()])
model = models.resnet152(pretrained=True).eval()
print([n for n, _ in model.named_children()])输出
[‘model’]
[‘conv1’, ‘bn1’, ‘relu’, ‘maxpool’, ‘layer1’, ‘layer2’, ‘layer3’, ‘layer4’, ‘avgpool’, ‘fc’]发布于 2022-10-14 04:46:54
层并没有丢失,而是将原始的Resnet模型封装在自己的类中。如果你使用:
print([n for n, _ in model.model.named_children()])因为Resnet模型存储在model类的ConvNet3属性下。
除非您出于另一个原因需要它,包装类似乎没有必要,更简单的方法是执行如下操作:
model = models.resnet152(pretrained=True)
model.fc = nn.Linear(2048,10)
model.eval()
print([n for n, _ in model.named_children()])https://stackoverflow.com/questions/74058751
复制相似问题