腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
搜索
关闭
文章
问答
(35)
视频
开发者手册
清单
用户
专栏
沙龙
全部问答
原创问答
Stack Exchange问答
更多筛选
回答情况:
全部
有回答
回答已采纳
提问时间:
不限
一周内
一月内
三月内
一年内
问题标签:
未找到与 相关的标签
筛选
重置
1
回答
PyTroch
,渐变计算
将torch.optim作为选项导入optimizer = optim.SGD(net.parameters(), lr=0.01)optimizer.zero_grad() #将渐变缓冲区清零损失=标准(输出,目标)optimizer.step() #执行更新 有没有人能解释
浏览 10
提问于2019-07-05
得票数 0
1
回答
如何在
Pytroch
逐层分析?
我试着把毕火炬中的DenseNet逐层描述为一次又一次的访问时间工具....model.to(device) model.eval()...<unfinished torch.autograd.p
浏览 0
提问于2018-12-12
得票数 5
回答已采纳
2
回答
Pytroch
随层宽变化的学习速率
我正在努力训练一个网络,在这个网络中,每一层的学习速度都是1/(层宽)。有办法在火把里这样做吗?我试着改变优化器中的学习速度,并将它包含在我的训练循环中,但这没有起作用。我见过一些人和Adam谈论过这个问题,但我正在使用SGD来训练。以下是我定义我的模型和培训的部分,如果这有帮助的话。 def __init__(self): self.network = nn.Sequential( nn.Conv2d(3, 8, 3)
浏览 6
提问于2022-05-01
得票数 1
回答已采纳
1
回答
将
pytroch
中的数据子处理加载到Google中
我正在用pytorch训练一个深度神经网络,我使用DataLoader对数据进行预处理,并对数据集进行多处理。我将num_workers属性设置为4这样的正数,batch_size为8。我在Google Colab环境下训练网络,但当训练持续几分钟后,停止训练,在读取.PNG文件时出错。我认为这是内存错误,我想知道GPU的数与batch_size和num_workers之间的关系,以建立它们之间的合理关系,特别是在Google 中。
浏览 0
提问于2018-04-01
得票数 0
1
回答
torch.nn.Sequential中的关键字参数(
pytroch
)
关于torch.nn.Sequential中的关键字的问题,是否有可能以某种方式将关键字转发到序列中的特定模型? res = model(input_ids_2, keyword_test=mask)非常感谢并致以最良好的问候!
浏览 0
提问于2019-08-14
得票数 0
1
回答
这是计算
PyTroch
中余弦相似性的正确方法吗?
cos = torch.nn.CosineSimilarity(dim=-1, eps=1e-6)b = torch.FloatTensor([1, 2, 3])tensor(0.9915)
浏览 5
修改于2022-01-21
得票数 1
回答已采纳
1
回答
如何从内存不足的
pytroch
CUDA中恢复?
我尝试了以下代码。当try中的代码由于CUDA内存不足而失败时,我将except中的批处理大小减少了一半,但它仍然出现了在except中运行模型的相同问题,但我确信一半的批处理大小是可运行的,因为我尝试在except中直接运行代码,而不尝试完整的批处理。它工作得很好。顺便问一下,有没有办法自动设置批处理大小,以充分利用CUDA内存而不会溢出? output = model(Variable(torch.LongTensor(np.array(x))).to(device),Variable(torch.LongTensor(np.array(pos))).to(device)
浏览 2
修改于2018-12-19
得票数 3
1
回答
如何计算
Pytroch
中两批分布之间的KL散度?
给定了一批分布,它表示为一个pytorch张量: [0., 0., 1., 0., 4., 2., 1., 1.], [0., 1., 1., 0., 2., 3., 1., 1.], [0., 0., 2., 0., 5., 0., 1., 0.], [0.,
浏览 0
修改于2021-01-09
得票数 0
回答已采纳
2
回答
从数学上讲,如何将
Pytroch
张量向量转换成列矩阵?
我在和火把的张量一起工作。如何将对应于列向量的张量转换为对应于其转置的张量?coef = torch.from_numpy(np.arange(1.0, 5.0)).float()print(coef.size())
浏览 0
提问于2018-04-16
得票数 1
回答已采纳
1
回答
pytroch
数据加载器RuntimeError:堆栈期望每个张量大小相等,但条目0处为[224,224],条目1为[224,224,3]。
我的问题是,在一个数据集中有两个张量,头、图像和标签。 当我执行简单的循环时,当我让dataloader如下所示时,一切看起来都很糟糕。然后跑print(i)RuntimeError:堆栈期望每个张量大小相等,但条目0时为224,224,条目4时为224,224,3
浏览 2
提问于2021-08-05
得票数 1
回答已采纳
1
回答
如何导入不能从pip/conda存储库安装的Python包(Python)?
但是我该如何处理
Pytroch
-整洁的代码呢?在Conda或pip存储库中没有py手电筒--整洁的包,因此,我猜这段
Pytroch
整洁的代码并不是作为用于木星笔记本的Python包来编译和分发的。我是否应该以某种方式在笔记本的前一个单元格中加载
Pytroch
整洁的脚本,然后我就可以从子句中调用它了?或者,我应该在本地编译
Pytroch
-整齐包,并从本地存储库安装它,并以类似的方式导入它。
浏览 1
提问于2019-04-07
得票数 2
回答已采纳
1
回答
如何将PyTorch模型导出到文件(Python)并使用TorchScript加载它(libtorsC++)?
main [c:\users\USER\projects\cmake dx cuda pytorch\cmake_integration_examples\pytorch\src\
pytroch
_load_model.cpp@ 19]cmake_minimum_required (VERSION 3.12 FATAL_ERROR) DESCRIPTION &qu
浏览 38
修改于2022-10-14
得票数 0
2
回答
PyTorch中复矩阵的行列式
在
PyTroch
中有计算复矩阵行列式的方法吗? torch.det不是为“ComplexFloat”实现的
浏览 0
修改于2021-03-20
得票数 3
回答已采纳
1
回答
火炬衬垫
在PyTorch张量中,我想从输入中获得如下输出:我怎样才能在
Pytroch
实现这个填充呢?
浏览 0
修改于2018-10-25
得票数 1
回答已采纳
3
回答
ImageDataBunch函数未定义-FastAI窗口
在中,他们提到在安装
pytroch
之前安装
pytroch
。
浏览 11
修改于2022-04-16
得票数 3
回答已采纳
1
回答
由于依赖问题,无法以诗歌形式安装torch和torchvision的gpu版本
= "https://download.pytorch.org/whl/cu111/torchvision-0.9.0%2Bcu111-cp38-cp38-linux_x86_64.whl" } 由于
pytroch
如果以这种方式安装,则
pytroch
的版本将为1.8.0+cu111。pytorch的1.8.0对应的torchvision为0.9.0。此torchvision所依赖的
pytroch
版本是1.8.0 (没有cu111)。因此,我不能使用poetry创建虚拟环境
浏览 94
修改于2021-08-25
得票数 1
回答已采纳
1
回答
毕托西格莫德函数e是什么?
我有一个关于在
pytroch
中设置乙状体函数的问题。
浏览 1
提问于2020-01-22
得票数 2
回答已采纳
1
回答
pytorch中的keras.layers.Masking相当于什么?
要么我需要在
pytroch
和pytorch中做填充,而pytorch不能处理可变长度的序列,这相当于pytorch中keras的掩蔽层,或者如果pytorch处理不同长度的序列,怎么做呢?
浏览 73
提问于2019-12-31
得票数 3
回答已采纳
1
回答
Pytorch指南不使用optim进行训练
我目前正在浏览
Pytroch
网站上的一个指南: 我以前做过pytorch项目,他们总是使用优化器。
浏览 0
提问于2020-07-31
得票数 0
2
回答
将张量列表转换为张量pytorch
我有张量列表,每个张量都有不同的大小,如何使用
pytroch
将这个张量列表转换为张量 更多信息我的列表包含张量每个张量都有不同的大小例如第一个张量的大小是torch.Size(76080,38) 其他张量的形状在第二个元素中可能不同
浏览 142
修改于2019-03-09
得票数 14
回答已采纳
第 2 页
领券