TensorFlow架构 我们为大规模分布式训练和推理设计了TensorFlow,但它也足够灵活,可以支持新机器学习模型和系统级优化的实验。 本文档描述了使这种规模和灵活性相结合的系统架构。
此状态可以包括服务器响应和缓存数据,以及本地创建的尚未保存到服务器的数据。UI状态的复杂性也在增加,因为我们需要管理活动路线,选定标签,旋钮,分页控件等。 管理这个不断变化的状态是困难的。
使用Docker机器在云提供商上提供主机 试用DockerCloud!我们建议使用DockerCloud作为在您的云提供商上运行Docker的最新方式。
机器概念与寻求帮助 DockerMachine允许您在各种环境中提供Docker机器,包括驻留在您的本地系统、云提供商或裸金属服务器上的虚拟机(%28物理计算机%29)。
将您的模型导出为SavedModel格式。 从本地服务器提供模型并请求预测。 准备服务于输入 在训练期间,从input_fn()摄取数据并准备好供模型使用。
您可以在单台物理计算机或云服务器上运行一个或多个节点,但生产群部署通常包括分布在多台物理机和云计算机上的Docker节点。 要将您的应用程序部署到群集,您需要向管理器节点提交服务定义。
构建高性能模型的最佳实践 以下收集的是一些可以提高性能并增加模型灵活性的其他最佳实践。 与NHWC和NCHW一起构建模型 CNN使用的大多数TensorFlow操作都支持NHWC和NCHW数据格式。
[iuzixjacq8.png] 从磁盘读取图像并扭曲它们可以使用不重要的处理时间。为了防止这些操作放慢训练速度,我们在连续填充TensorFlow队列的16个独立线程中运行它们。
驱动程序选项和操作系统默认值 当DockerMachine在本地网络提供商或与远程云提供商(如AmazonWeb服务)提供容器时,必须同时为提供程序和基本操作系统定义驱动程序。
网络插件 插入描述Contiv网络一个开源网络插件,为多租户微服务部署提供基础架构和安全策略,同时为非容器工作负载提供物理网络集成。
HTTP主要依赖于TCP的传输协议,在客户端和服务器之间提供连接。在初期,HTTP使用单一模型来处理这种连接。这些连接是短暂的:每次请求需要发送时创建一个新连接,并在收到答复后关闭。
基准 概观 在多个平台上测试了一系列图像分类模型,为TensorFlow社区创建了参考点。Methodology部分详细说明了测试如何执行并且链接到了所使用的脚本。
JSONP跨域的原理 在同源策略下,在某个服务器下的页面是无法获取到该服务器以外的数据的,但img、iframe、script等标签是个例外,这些标签可以通过src属性请求到其他服务器上的数据。
亚马逊网络服务(AWS)EC2示例 试用DockerCloud!我们建议使用DockerCloud作为在您的云提供商上运行Docker的最新方式。
要做到这一点,我们必须在分布式应用程序的层次结构中提升一级:服务... 堆叠 服务你在这里 容器(第2部分涵盖) 关于服务 在分布式应用程序中,应用程序的不同部分被称为“服务”。
最简单的方法之一是在输入管道之后将模型简化为单个操作(平凡模型)并每秒测量示例。如果整个模型和平凡模型的每秒示例差异最小,则输入管线可能是瓶颈。

扫码关注腾讯云开发者
领取腾讯云代金券
Copyright © 2013 - 2026 Tencent Cloud. All Rights Reserved. 腾讯云 版权所有
深圳市腾讯计算机系统有限公司 ICP备案/许可证号:粤B2-20090059
粤公网安备44030502008569号
腾讯云计算(北京)有限责任公司 京ICP证150476号 | 京ICP备11018762号
