如果我们将torch.nn.Conv2d应用于可以理解为3个二维矩阵的"RGB“图像,那么参数in_channels对应于3个通道'R','G‘和'B’。在我看来,形状为[sentence length, embedding size]的嵌入语句应该被视为1个二维矩阵,所以在这种情况下,为什么参数in_channels不是1,而是嵌入在torch.nn.Conv1d中的大小,与torch.nn.Conv2d的含义不同
你能解释一下nlp / TextCNN中in_channels在torch.nn.Conv1d中的真正含义吗?为什么它不同于torch.nn.Conv2d
谢谢!
发布于 2020-11-20 23:05:27
在使用Conv1d时,可以将嵌入维度视为中的in_channels。
解释-
假设您正在尝试输入一个长度为'N‘的句子,如下所示-
我是这个的用户……N.
所有这些单词都被转换为单词嵌入,比如E维。
此向量的维度为--> N,E
如果你考虑一批批大小为"B“的输入句子--> B,N,E
所以现在你可以这样称呼它:
x = nn.Conv1d(in_channels = E, out_channels = .......)看一看- https://gist.github.com/spro/c87cc706625b8a54e604fb1024106556
https://stackoverflow.com/questions/64927596
复制相似问题