我们正在使用时间融合变压器来训练一个大型的高级PyTorch。
我们正在研究使用分布式培训和加速使用SageMaker的培训工作。
有人有这样的例子吗?有你能推荐的模式吗?
发布于 2022-09-15 04:55:39
虽然上面提到的模型没有直接的示例,但是您应该能够遵循下面的PL文档
https://docs.aws.amazon.com/sagemaker/latest/dg/data-parallel-modify-sdp-pt-lightning.html
请参阅下面的示例,以获得使用SageMaker、DDP和的完整示例。
parallel/PyTorch%20Lightning%20on%20SageMaker.ipynb
https://stackoverflow.com/questions/73661839
相似问题