首页
学习
活动
专区
圈层
工具
发布
社区首页 >问答首页 >(NLP,TextCNN)为什么in_channels等于torch.nn.Conv1d中的嵌入大小?

(NLP,TextCNN)为什么in_channels等于torch.nn.Conv1d中的嵌入大小?
EN

Stack Overflow用户
提问于 2020-11-20 18:15:27
回答 1查看 243关注 0票数 0

如果我们将torch.nn.Conv2d应用于可以理解为3个二维矩阵的"RGB“图像,那么参数in_channels对应于3个通道'R','G‘和'B’。在我看来,形状为[sentence length, embedding size]的嵌入语句应该被视为1个二维矩阵,所以在这种情况下,为什么参数in_channels不是1,而是嵌入在torch.nn.Conv1d中的大小,与torch.nn.Conv2d的含义不同

你能解释一下nlp / TextCNN中in_channelstorch.nn.Conv1d中的真正含义吗?为什么它不同于torch.nn.Conv2d

谢谢!

EN

回答 1

Stack Overflow用户

发布于 2020-11-20 23:05:27

在使用Conv1d时,可以将嵌入维度视为中的in_channels。

解释-

假设您正在尝试输入一个长度为'N‘的句子,如下所示-

我是这个的用户……N.

所有这些单词都被转换为单词嵌入,比如E维。

此向量的维度为--> N,E

如果你考虑一批批大小为"B“的输入句子--> B,N,E

所以现在你可以这样称呼它:

代码语言:javascript
复制
x = nn.Conv1d(in_channels = E, out_channels = .......)

看一看- https://gist.github.com/spro/c87cc706625b8a54e604fb1024106556

票数 0
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/64927596

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档