所以我在注意是你所需要的上读到,变形金刚完全消除了重复和卷积的需要。但是,我已经看到一些TNN(如SepFormer、DPTNet和TSTNN)仍然使用卷积。有什么特别的原因吗?这不违背变形金刚的宗旨吗?
发布于 2021-04-14 17:58:12
我们在缩聚纸中找到了一些理由:
https://datascience.stackexchange.com/questions/93038
相似问题