预取输入数据的队列以隔离模型与磁盘延迟和消耗较大的图像预处理。 我们还提供了该模型的多GPU版本,它演示了: 配置模型以并行训练多个GPU卡。 在多个GPU之间共享和更新变量。
该指南分为几个部分: 一般最佳实践涵盖了各种模型类型和硬件中常见的主题。 针对与GPU有关的GPU细节提示进行优化。 针对CPU详细信息优化CPU特定信息。
高性能模型 本文档和附带的脚本详细介绍了如何构建针对各种系统类型和网络拓扑的高度可扩展模型。本文档中的技术利用了一些低级的TensorFlowPython基元。
"/device:GPU:1":您机器的第二个GPU等 如果TensorFlow操作同时具有CPU和GPU,则在将操作分配给设备时,GPU设备将被赋予优先权。
以下教程解释了TensorFlow系统上CPU和GPU的交互: 使用GPU以下教程介绍了图像识别的各个方面: 图像识别,它介绍了图像识别领域和用于识别图像的模型(初始)。
JIT编译在会话级别打开,方法是在会话初始化期间将config设置global_jit_level为tf.OptimizerOptions.ON_1并传递配置。
TensorFlow架构 我们为大规模分布式训练和推理设计了TensorFlow,但它也足够灵活,可以支持新机器学习模型和系统级优化的实验。 本文档描述了使这种规模和灵活性相结合的系统架构。
这导致了一个低级编程模型,您首先在其中定义数据流图,然后创建一个TensorFlow会话以在一组本地和远程设备上运行图的一部分。 如果您打算直接使用低级编程模型,本指南将非常有用。
TensorFlow现在支持一台或多台计算机中的多个设备(CPU和GPU)。 TensorFlow与Python3兼容吗?
例如,XLAGPU后端可以执行专用于GPU编程模型的操作融合,并确定如何将计算划分为流。在这个阶段,后端也可以模式匹配某些操作或其组合来优化库调用。 下一步是目标特定的代码生成。
估算器的优点 估算人员提供以下好处: 您可以在本地主机上或分布式多服务器环境中运行基于估算器的模型,而无需更改模型。此外,您可以在CPU,GPU或TPU上运行基于估算器的模型,而无需重新编码模型。
模型 LSTM 该模型的核心由一个LSTM单元组成,每次处理一个单词并计算句子中下一个单词的可能值的概率。网络的内存状态用零向量初始化,并在读取每个单词后得到更新。

扫码关注腾讯云开发者
领取腾讯云代金券
Copyright © 2013 - 2026 Tencent Cloud. All Rights Reserved. 腾讯云 版权所有
深圳市腾讯计算机系统有限公司 ICP备案/许可证号:粤B2-20090059
粤公网安备44030502008569号
腾讯云计算(北京)有限责任公司 京ICP证150476号 | 京ICP备11018762号
