我正在使用PyTorch版本的OpenNMT,并试图修改波束搜索算法。我目前被困在beam_update函数中(在OpenNMT-py/onmt/解码器/decder.py文件中)。当它被称为:
sent_states.data.copy_( sent_states.data.index_select(1, positions))
根据文档函数的pythorch函数,它将
将src中的元素复制到自张量中,并返回self。
但是,“自张量”是指什么?有人能向我解释一下这个函数是干什么的吗?或者指给我看源代码,因为我找不到它.
发布于 2018-07-03 10:47:12
self张量是你调用copy_的张量。在您的示例中,它是sent_states.data。
要回答评论中提出的问题:为什么复制不像用=赋值
.copy()创建一个新内存位置的真实副本,而使用=分配只存储对该内存位置的引用。
下面的代码显示了执行方面的差异:
import torch
torch.manual_seed(3515)
tensor1 = torch.rand(2, 3)
tensor2 = torch.rand(2, 2)
tensor3 = torch.rand(2, 3)
positions = torch.tensor([2, 0])
tensor2.data.copy_(tensor1.data.index_select(1, positions))
tensor3.data = tensor1.data.index_select(1, positions)
print(tensor2)
print(tensor3)
print(id(tensor1.data[0]))
print(id(tensor2.data[0]))
print(id(tensor3.data[0]))输出:
tensor([[ 0.5939, 0.8861],
[ 0.7525, 0.1537]])
tensor([[ 0.5939, 0.8861],
[ 0.7525, 0.1537]])
4583187080
4583187008
4583187080tensor1和tensor3的位置相同,而tensor2已复制到新位置。
https://stackoverflow.com/questions/51152088
复制相似问题