腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
搜索
关闭
文章
问答
(9999+)
视频
开发者手册
清单
用户
专栏
沙龙
全部问答
原创问答
Stack Exchange问答
更多筛选
回答情况:
全部
有回答
回答已采纳
提问时间:
不限
一周内
一月内
三月内
一年内
问题标签:
未找到与 相关的标签
筛选
重置
2
回答
赛义德-
分布式
训练
当未显式指定
分布式
培训时,我找不到关于Sag怪人行为的文档。具体来说, 当通过distribution=‘数据并行’使用SageMaker
分布式
数据并行时,文档声明每个实例处理不同批数据。
浏览 11
提问于2021-12-15
得票数 0
1
回答
MXNet
分布式
训练
精度
我正在使用MXNet对Caltech 256数据集上的Resnet模型进行细化,如下示例所示: 如果需要,我可以发布我的代码并运行命令。
浏览 4
修改于2017-10-03
得票数 0
回答已采纳
1
回答
SageMaker对象检测支持
分布式
训练
吗?
我想通过使用
分布式
训练
来缩短使用SageMaker内置对象检测算法(实例计数> 1)的
训练
作业的时间。我试图通过将培训数据分割成多个RecordIO文件而不是仅仅一个文件来做到这一点。这使我相信,该算法不支持通过
分布式
训练
来加快
训练
时间。我说的对吗?还是有其他方法可以利用多个培训实例来加快培训工作的持续时间?
浏览 2
提问于2022-09-12
得票数 0
2
回答
SageMaker内置LightGBM算法支持
分布式
训练
吗?
SageMaker内置的LightGBM算法是否支持
分布式
训练
?非常感谢您对此的任何建议或澄清。
浏览 20
提问于2022-09-11
得票数 0
回答已采纳
1
回答
tensorflow中LSTM的
分布式
训练
如果在模型中使用它,如果我使用
分布式
训练
,反向传播会发生冲突吗?
浏览 5
修改于2017-12-26
得票数 1
回答已采纳
1
回答
Tensorflow
分布式
训练
在每个时期后暂停
我正在使用Tensorflow MirroredStrategy在2个GPU上并行
训练
神经网络。使用单个GPU时,每个时期需要19秒才能完成,而使用2个GPU时,每个时期需要13秒才能完成。我对此并不感到惊讶,因为我知道由于在
训练
期间更新变量的all_reduce开销,缩放并不完美。 然而,在
分布式
训练
的每个时期之后,有大约8秒的暂停。当使用单个GPU时,此暂停时间少于1秒。有没有人知道为什么在分发
训练
时,每个时代之后都会有这么长的停顿? 或者,有人能解释一下
分布式
训练
浏览 17
修改于2020-07-02
得票数 0
1
回答
SageMaker
分布式
训练
能用于非深度学习模式的
训练
吗?
我正在跟踪这个页面,以了解SageMaker的
分布式
培训功能。上面写着:- SageMaker
分布式
培训库只能通过TensorFlow、PyTorch和HuggingFace框架的AWS深度学习容器在SageMaker培训平台中使用。这是否意味着我们不能使用SageMaker
分布式
训练
来使用传统的机器学习算法(如线性回归、随机森林或XGBoost )来
训练
机器学习模型?我有一个用例,其中数据集非常大,和
分布式
培训可以帮助模型并行和数据并行。为了避免在
训练
实例的内存中输
浏览 12
提问于2022-09-17
得票数 -1
1
回答
用于
分布式
训练
的Tensorflow输入管道
我正在尝试弄清楚如何在
分布式
训练
中为tensorflow设置输入管道。目前还不清楚读取器是否会从单个进程读取数据并将数据发送给所有工作进程,还是每个服务器都会启动自己的输入管道?
浏览 0
修改于2017-08-07
得票数 4
1
回答
在AMLS中使用Tensorflow进行
分布式
训练
use_gpu=True,run = exp.submit(est) 似乎在使用这种配置的运行中,各个工作人员提出了自己的
训练
模型实例我需要在Tensorflow
训练
脚本中处理
分布式
训练
吗?
浏览 21
提问于2019-09-13
得票数 1
1
回答
ML引擎中
分布式
训练
的正确运行方式
我试图使用ML引擎中的
分布式
培训作业来
训练
我的模型(这不是用tf.estimator或tf.keras构建的)。 所以,如果在命令行中提供了前者,是否意味着我不需要对后者做任何事情,因为ML引擎在某种程度上负责在设备之间分发我的图形
浏览 0
提问于2018-05-15
得票数 3
回答已采纳
2
回答
多个小ML模型的
分布式
训练
我有一个数据科学应用程序,涉及到
训练
数以万计的小个体高斯模型。所谓“小”,我的意思是,任何单独的模型都可以很容易地在我们的一个工人服务器上
训练
。事实上,我们应该能够在每一个节点上同时
训练
几个。我一直在探索与Yarn一起使用Spark,但是Spark似乎真的是为了
训练
多台机器上的大型模型,而不是包含在单个机器上的许多小型模型。我正在想象一个工作流程,看起来像:将整组数据发送到单个工人机器,报告或保存受过
训练
的模型。 我需要一些关于如何实现这一
浏览 0
修改于2018-09-18
得票数 2
回答已采纳
1
回答
SageMaker中时态融合变压器的
分布式
训练
实例
我们正在使用来
训练
一个大型的高级PyTorch。有人有这样的例子吗?有你能推荐的模式吗?
浏览 10
修改于2022-10-07
得票数 0
1
回答
在Google Colab中使用多个GPU的Tensorflow中的
分布式
训练
最近,我对将
分布式
培训整合到我的Tensorflow项目中产生了兴趣。我正在使用Google Colab和Python3来实现一个带有定制的、
分布式
的
训练
循环的神经网络,如本指南中所述: 在“创建分发变量和图形策略”部分的指南中,有一些代码的图片,这些代码基本上设置了一个据我所知,输出表明MirroredStrategy只创建了模型的一个副本,因此,只有一个GPU将用于
训练
模型。我的问题是: Google Colab是否仅限于在单个GPU上进行培训?因此,我预计有可能在Google Colab中并行
训练
四
浏览 8
修改于2020-06-20
得票数 5
1
回答
分布式
训练
是否产生在每个分布节点内
训练
的平均NNs神经网络?
我目前正在筛选大量关于神经网络
分布式
训练
(反向传播的
训练
)的材料。我越深入研究这些材料,我就越觉得每一个
分布式
神经网络
训练
算法都只是一种结合
分布式
节点(通常使用平均值)产生的梯度与执行环境的约束(即网络拓扑结构、节点性能相等、.)之间的梯度的一种方法。所有的底层算法都集中在对执行环境约束的假设的挖掘上,目的是减少总体滞后,从而减少完成
训练
所需的总时间。因此,如果我们只是以某种巧妙的方式将梯度和
分布式
训练
结合起来,那么整个过程
训
浏览 0
修改于2019-06-30
得票数 0
回答已采纳
1
回答
I型ML.NET的
分布式
训练
?
是否有可能对多个工作人员/服务器进行ML.NET模型的
分布式
培训/拟合?我有大量的记录与多达10个或更多的功能,我想再培训,但它将需要很长时间来做在一台电脑上。
浏览 4
修改于2021-12-29
得票数 0
回答已采纳
1
回答
基于低水平Tensorflow API的
分布式
训练
我正在使用低水平的Tensorflow API作为我的模型培训。当我说低级别时,这意味着我定义了图的tf.Session()对象,并在这个会话中对图进行了计算。我可以使用tensorflow在文档中共享的示例在tensorflow顺序API上使用mirroredstrategy()。我尝试使用distribute.MirrorStrategy(),下面是资源利用的结果: 0 GeForce RTX 2080 Ti区48'C,40 %区1077
浏览 0
修改于2021-06-22
得票数 2
2
回答
tf.learn估计器的
分布式
训练
?
我想使用Tensorflow高级apis,以
分布式
的方式在MNIST上
训练
卷积神经网络。我试图指定集群配置,并将其传递给Estimator (下面的代码)。
浏览 1
修改于2017-03-23
得票数 0
1
回答
基于kubernetes的
分布式
张量流
训练
我想在kubernetes集群上使用
分布式
张量流
训练
一个模型。请推荐kubeflow以外的其他方式
浏览 0
提问于2020-05-28
得票数 0
1
回答
RecvTensor取消警告的Tensorflow
分布式
训练
挂起
在参数服务器
分布式
模式下,我正在使用tensorflow 2.1.0的估值器api
训练
一个模型。我使用2个ps服务器和5个工作人员(索引范围从0到4)来
训练
模型。工人0是主任,工人1是评估者,休息的是普通工人。
浏览 10
修改于2021-04-02
得票数 1
回答已采纳
1
回答
使用GPU Spot实例进行SageMaker
分布式
训练
?
我有一个要求,使用N1xGPU Spot实例,而不是1xN-GPU实例的
分布式
培训。 SageMaker
分布式
培训是否支持GPU Spot实例的使用?如果是,如何启用?
浏览 10
提问于2022-09-11
得票数 0
第 2 页
第 3 页
第 4 页
第 5 页
第 6 页
第 7 页
第 8 页
第 9 页
第 10 页
第 11 页
点击加载更多
领券