首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏CODING DevOps

    研发效能平台的“双流”模型

    在这个过程中,有多次工具切换,要花费大量时间在流程性的事务上,造成时间和精力的浪费,还需要你对各个工具平台的使用方法和流程都很清楚。更糟糕的是,各个工具平台的概念模型可能还不完全一致。 研发效能平台的“双流”模型本书提出的研发效能“双流”模型是“一站式”和“一键式”概念的最好诠释。 “双流”模型是实现研发效能平台的一个参考依据,值得借鉴。以下就通过具体例子介绍“双流”模型的工作原理和实现方式。 但是以“双流”模型实现的效能工具平台就会简单很多,完全不需要在需求管理工具、代码平台工具和 IDE 之间切换,只需要在 IDE 中即可完成全部工作。 研发效能“双流”模型明确定义了软件研发各个阶段的高效实践总结这部分介绍了传统单点研发工具平台在横向拉通维度上的痛点,并在此基础上提出了研发效能平台“一站式”和“一键式”的概念。

    1.3K10编辑于 2023-06-21
  • 来自专栏凯哥讲故事系列

    机器学习平台模型发布指南

    导读:近两年,各式各样的机器学习平台如雨后春笋一样出现,极大地降低了从业者的门槛。大家的关注点往往在平台如何能够高效地进行各种花样地数据预处理,如何简单易用地训练出各种模型上。但是在产出模型之后呢? 优化平台自身:在得到相对比较成熟的模型后,反哺平台的流程,以模型算法增强平台的功能。这样,才能产生平台 -> 模型 -> better平台 -> better模型 -> … 的良性闭环。 因此,在我们得到对应场景的模型后,便可以发布成预标注的任务,先于人工进行标注,大大优化平台的标注流程,从而得到更好的模型,再更好的优化平台,再。。。 与预标注类似,平台可以利用模型计算源数据各场景数据的稀缺性,来指导平台数据的采集工作,以加强模型较薄弱性能的场景。 这样,平台就通过发布自身产出的模型,来优化平台的数据的采集、数据加工、模型训练等各个流程,从而得到更好的模型,达到自动持续的优化的效果,形成良好的闭环。

    4.1K30发布于 2020-01-17
  • 来自专栏编程识堂

    AIOT平台系列之产品物模型

    什么是物模型模型是指将物理设备的属性、服务、事件等信息进行抽象和建模,形成标准化的数据模型,以便于设备之间的互联互通和数据交换。 在物联网中,物模型是设备接入平台和应用平台之间的重要桥梁,也是实现设备智能化的基础; 为什么需要物模型 海量的物联网数据、设备,多样的业务场景,难以理解,互通困难; 产业链内部自成体系,模组、芯片、 平台、方案商角色多样,跨角色协作时,数据标准各异,协作困难; 在万物互联的时代,需要对接不同厂商设备,协议需要重复开发,难以规模化; 海量设备数据解析困难,没有结构化,难以挖掘数据价值; 物模型能解决哪些问题 协议描述 产品定义物模型后,设备可以根据物模型中的定义上报属性、事件,并可对设备下发控制指令。 设备初始信息上报:设备连接平台时上报的初始信息,便于小程序或 App 展示设备详细信息,如设备 MAC 地址、IMEI 号。

    1.1K20编辑于 2023-05-24
  • 建设大模型训练排障平台

    建设大模型训练排障平台是提升训练效率、降低运维成本、保障研发进度的关键基础设施。 以下是构建这样一个平台的系统化方案:一、核心建设目标故障快速定位:分钟级定位硬件/软件/算法故障根源训练过程透明化:实时监控千卡级集群训练状态智能预警:提前发现潜在故障风险(如梯度异常)知识沉淀:构建可复用的排障知识库二 、平台核心模块设计1.

    22310编辑于 2025-08-15
  • 来自专栏Python深度学习

    使用Python实现深度学习模型:跨平台模型移植与部署

    引言随着深度学习技术的快速发展,模型的跨平台移植与部署变得越来越重要。无论是将模型从开发环境移植到生产环境,还是在不同的硬件平台上运行,跨平台部署都能显著提高模型的实用性和可扩展性。 本文将介绍如何使用Python实现深度学习模型的跨平台移植与部署,并提供详细的代码示例。 ')步骤三:模型转换为了在移动和嵌入式设备上运行,我们需要将模型转换为TensorFlow Lite格式。 successfully')"]构建并运行Docker镜像:docker build -t mnist_model .docker run mnist_model结论通过以上步骤,我们实现了一个简单的深度学习模型的跨平台移植与部署 无论是在移动设备上运行,还是在不同的服务器环境中部署,跨平台技术都能显著提高模型的实用性和可扩展性。希望这篇教程对你有所帮助!

    72810编辑于 2024-07-10
  • 来自专栏数据结构和算法

    使用Python实现深度学习模型:跨平台模型移植与部署

    引言 随着深度学习技术的快速发展,模型的跨平台移植与部署变得越来越重要。无论是将模型从开发环境移植到生产环境,还是在不同的硬件平台上运行,跨平台部署都能显著提高模型的实用性和可扩展性。 本文将介绍如何使用Python实现深度学习模型的跨平台移植与部署,并提供详细的代码示例。 可以使用以下命令安装: pip install tensorflow tensorflow-lite 步骤二:训练深度学习模型 我们将使用MNIST数据集训练一个简单的卷积神经网络(CNN)模型。 以下是训练模型的代码: import tensorflow as tf # 加载MNIST数据集 mnist = tf.keras.datasets.mnist (x_train, y_train), (x_test, y_test) = mnist.load_data() x_train, x_test = x_train / 255.0, x_test / 255.0 # 定义模型 model

    35310编辑于 2024-07-11
  • 来自专栏云同步

    腾讯云平台 - Stable Diffusion WebUI 下载模型

    1)进入控制台,点击算力连接 》 JupyterLab 2)进入模型目录(双击) 3)上传模型 例如:我要上传大模型

    21500编辑于 2025-08-01
  • 来自专栏韦东山嵌入式

    Linux内核平台总线设备驱动模型浅析

    复习总线设备驱动模型,做了一点小笔记,大牛略过。 一、Linux系统的驱动框架的基础很大一部分是围绕着总线设备驱动模型展开的。 一般我们移植内核时需填充该结构体(如支持mini2440的nandflash,dm9000等)    dev_t           devt;            // 设备号  }; 任何建立在平台总线设备驱动模型基础上的驱动代码 (如平台驱动,PCI驱动,USB驱动,I2C驱动,SPI驱动等),它们的设备结构体(如platform_device, pci_dev,usb_device,i2c_device, spi_device 指向设备探测函数    int (*remove) (struct device*dev);// 指向设备移除函数    struct driver_private *p;  }; 同理,任何建立在平台总线设备驱动模型基础上的驱动代码 (如平台驱动,PCI驱动,USB驱动,I2C驱动,SPI驱动等),它们的驱动结构体(如platform_driver, pci_driver,usb_driver,i2c_driver,spi_driver

    2.7K30发布于 2020-09-30
  • 云原生PaaS服务平台-对象模型思考

    在前面谈云原生技术解决方案和PaaS平台的时候,更多都是从技术平台层面进行阐述,如果真在要转变为面向多租户的PaaS服务平台,那么就需要一个完整的底层对象模型支撑。 因此今天简单谈下PaaS服务平台的对象模型和关键对象之间的关系。 多租户和面向应用开发者 对于PaaS服务平台来说本身应该是多租户架构。 根据阿里云的说法,在PaaS的核心领域模型中,不再尝试定义“环境”这个模型,因为环境的概念在不同组织的研发协同流程中定义是不一致的,所以环境可以根据当前的PaaS领域模型组合搭建。 PaaS平台多租户模型 上图为Gartner的多租户参考架构 在私有云和公用云环境对多租户的理解上是有不同的概念的。 在公用云环境往往我们谈的是saas的多租户,租户往往为使用业务系统的一个企业或组织,而在私有云环境,paas平台提供的应用往往为平台级应用,平台级应用面对的租户是业务系统本身。

    40010编辑于 2025-06-24
  • 来自专栏token的技术分享

    从0开始搭建免费大模型平台

    下面我们讲解从0开始搭建我们的免费大模型管理平台,接入其他的免费大模型,然后加入到我们自己的平台当中,然后进行监控和管理。 部署大模型管理平台 下面我们将在拥有docker的环境下部署我们的大模型管理平台。 打开我们的服务器。 ,创建完成以后得到密钥, 添加模型渠道 下面我们打开大模型管理平台,然后进入渠道菜单,然后点击右上角的操作展开的创建渠道 渠道名称 测试模型 渠道类型腾讯混元大模型 代理地址 空 资源地域 (看个人情况定 根据上面的测试,我们给我们的平台接入了腾讯大模型的免费模型hunyuan-lite 然后我们试试看用semantic-kernel进行对话操作。 https://api.token-ai.cn/创建的令牌", httpClient: new HttpClient(new OpenAIHttpClientHandler("复制您的大模型平台的地址

    89510编辑于 2024-06-18
  • 来自专栏用户6296428的专栏

    有赞算法平台模型部署演进

    二、原有架构 2.1 架构设计 在有赞算法平台Sunfish包含算法训练和模型部署两部分, 模型部署的模块称为ABox(小盒子)。 提供 tensorflow 模型和其他模型服务(自己部署在额外服务器上)的路由管理 3. 提供模型输入和输出的自定义处理逻辑执行 4. 提供服务主机的负载均衡管理 5. worker 节点资源使用容易不均衡 痛点3 资源未隔离 热点模型占用大量的CPU/内存,容易影响其他模型服务 痛点4 缺乏通用性 模型服务无法统一管理, tensorflow 模型和其他框架模型管理割裂 Reusable Model Servers 通过配置的模型地址,从外部的模型仓库下载模型, seldon 模型预置了较多的开源模型推理服务器, 包含 tfserving , triton 都属于 Reusable HDFS-Intializer 用于 Reusable Model Server 中的 hdfs:// 协议的 modelUri 基于腾讯云的 GpuManager 方案实现GPU的虚拟化和共享 通过在算法平台集成

    1.5K33编辑于 2022-02-09
  • 来自专栏测试开发干货

    【deepseek用例生成平台-20】打造平台模型的接口调用引擎

    20110编辑于 2025-03-28
  • 来自专栏得物技术

    得物大模型平台,业务效果提升实践

    一、背景 得物大模型训练与推理平台上线几个月后,我们与公司内部超过 10 个业务领域展开了全面的合作。 本文基于我们与业务合作的经验,将分享如何在大模型平台上实现业务效果指标提升。我们将以大模型平台上从训练到推理部署的全链路流程为基础,提供优化思路,最终达成业务效果指标的提升。 这些流程包括大模型选择、数据准备、大模型训练、效果评估和推理部署。 我们期望更多的业务方能与大模型平台合作,以实现业务效果的提升。 一旦选择了大模型,您也可以在大模型平台上重新运行评分以便进行进一步验证。 对于专业领域,如法务、医疗和编程等,您需要关注领域专用的大模型。 训练的过程 如何开启训练 在大模型平台上,用户可以按照以下步骤迅速启动大模型训练并进行自动部署: 选择大模型。基于之前提到的大模型选择原则,在大模型平台上选择您需要的大模型。 上传训练数据。

    71710编辑于 2023-12-27
  • 来自专栏腾讯云网络专家服务

    浅谈大模型训练排障平台的建设

    排障平台建设思路在集群规模较小的情况下,上述问题定位和处理思路在一定程度上可以发挥作用。然而,随着模型参数量的增加和训练复杂性的提高,所需的集群规模会越来越大。 因此,我们需要不断将问题的处理经验进行工程化,并不断优化,同时应该站在更高的维度,去分析和处理故障,基于此,我们可以将整个故障处理的流程平台化。 从上述常规故障排查思路出发,我们可以进一步扩展,一种简单的思路是,按照 防范故障 → 监测故障 → 处理故障的步骤,将平台划分为三个模块:健康检查模块:致力于防范潜在风险,对集群、网络及训练任务进行定期巡查 在本案例的排查与处理过程中,我们首先借助平台的能力,对集群的各项指标及相关告警进行排查,以检测是否存在异常现象,排除机器故障或网络侧问题。同时,我们使用NCCL-TEST来验证RDMA网络问题。 总结本文概括性地介绍了大型模型训练中遇到的问题分类、基本排查方法以及排障工具平台构建的基本思路。

    3.1K364编辑于 2023-11-17
  • 模型托管平台用户操作手册

    模型托管平台用户操作手册的简要说明: 注册和登录:首先,用户需要注册一个账号,提供必要的个人信息,并选择一个用户名和密码。然后,用户可以使用注册的用户名和密码登录到平台。 部署模型:训练完成后,用户可以选择将模型部署到平台上。用户需要指定模型的输入和输出接口,并设置模型的运行环境(例如CPU、GPU等)。平台会为用户自动创建模型的API,并提供相应的调用地址。 测试和评估:用户可以使用平台提供的测试工具对部署的模型进行测试和评估。用户可以输入测试数据,调用模型API,并获取模型的输出结果。用户还可以使用平台提供的评估指标对模型进行评估和比较。 在获取到模型的输出结果之后,可以根据具体需求进行模型的评估和比较。根据模型的任务类型和性能指标,也可以使用平台提供的评估指标对模型的性能进行评估和比较。 以上是用户操作手册的简要说明,具体的操作步骤和案例分析可以根据平台的具体实现和用户需求进行调整。 由于大模型托管平台功能较为复杂,涉及到前端、后端和数据库等多个方面的开发。

    31810编辑于 2025-08-29
  • 来自专栏DotNet NB && CloudNative

    .NET 平台使用SDK快速对接各大语言模型

    一、项目介绍 最近,在做GPT项目时,发现各个平台的接口规范和参数不同,需要根据不同平台模型写多种接口,比较麻烦,不想Python那样有丰富和方便的AI环境, 如果c#有一个SDK可以方便调用各种平台模型就好了 AllInAI.Sharp.API一款调用各大平台语言模型的SDK,能帮助使用者快速对接各大模型。 二、已完成模型 OpenAI chatGLM 文心千帆 同义千问 stable-diffusion 三、接口分类 目前分为两类 ChatService 聊天服务 ImgService 图片服务 四、使用范例 TerraMours_Gpt 项目是一个多模型的AI应用和管理系统,支持多语言模型聊天、基于chatgpt和SD的多模型图片生成等功能。 目前已支持配置api的模型:OpenAI,chatGLM,文心千帆,同义千问,stable-diffusion。 项目支持基于docker的快速部署搭建。

    51010编辑于 2024-03-01
  • 深度学习模型在C++平台的部署

    一、概述  深度学习模型能够在各种生产场景中发挥重要的作用,而深度学习模型往往在Python环境下完成训练,因而训练好的模型如何在生产环境下实现稳定可靠的部署,便是一个重要内容。 C++开发平台广泛存在于各种复杂的生产环境,随着业务效能需求的不断提高,充分运用深度学习技术的优势显得尤为重要。本文介绍如何实现将深度学习模型部署在C++平台上。二、步骤  s1. P ython环境中设计并训练深度学习模型;  s3. 将训练好的模型保存为.onnx格式的模型文件;  s4. C++环境中加载模型文件,完成功能开发。 三、示例  在Python环境下设计并训练一个关于手写数字识别的卷积神经网络(CNN)模型,将模型导出为ONNX格式的文件,然后在C++环境下完成对模型的部署和推理。1.

    39510编辑于 2025-07-16
  • OpenAI开源GPT模型登陆SageMaker JumpStart平台

    OpenAI开源GPT模型登陆SageMaker JumpStart平台某中心宣布其SageMaker JumpStart平台现已支持OpenAI最新开源的GPT OSS模型(gpt-oss-120b和 这两款模型专长于编程、科学分析和数学推理任务,具有128K上下文窗口和可调节推理级别(低/中/高),支持外部工具集成和代理工作流。 技术特性模型架构:基于Transformer的生成式预训练模型核心能力:完整思维链输出展示支持通过Strands Agents等框架构建代理工作流兼容OpenAI SDK直接调用部署规格:默认实例类型: 支持区域:美国东部(俄亥俄、弗吉尼亚北部)和亚太(孟买、东京)部署指南通过SageMaker控制台登录SageMaker Studio控制台在JumpStart页面搜索"gpt-oss-120b"查看模型卡片并配置端点参数选择 资源清理完成测试后需删除端点避免额外计费:predictor.delete_model()predictor.delete_endpoint()该解决方案为企业用户提供了安全可控的生成式AI部署环境,支持在私有VPC内运行模型

    29510编辑于 2025-08-15
  • 来自专栏OneCode 低代码

    探索 OneCode 小模型支撑平台:助力模型开发与部署的强大后盾

    在当今快速发展的人工智能领域,一个高效、稳定且功能强大的小模型支撑平台对于模型的开发、训练和部署至关重要。 OneCode 小模型支撑平台正是这样一个引人注目的工具,它为开发者和企业提供了全方位的支持,极大地提升了模型开发的效率和质量。 一、平台概述(一)功能集成与模块化设计OneCode 小模型支撑平台集成了众多强大的功能模块,涵盖了从数据预处理、模型训练到模型部署和监控的整个流程。 (二)多平台兼容性与易用性该平台具有出色的多平台兼容性,无论是在 Windows、MacOS 还是 Linux 等常见的操作系统上,都能够稳定运行。 (三)小模型支撑平台核心优势添加图片注释,不超过 140 字(可选)​ ​ 小模型支撑平台自助模型训练功能为其赋予了高度的灵活性和定制化能力。

    53610编辑于 2024-12-29
  • 来自专栏GiantPandaCV

    平台轻量级PyTorch模型推理框架MsnhNet

    Msnhnet 一款轻量的用于推理pytorch模型的框架,该框架受darknet启发. ? (也就晚上有时间... (╮(╯_╰)╭)) Yolo测试 Win10 MSVC 2017 I7-10700F (Linux平台大约比Win快10~20%,当然不是所有网络) nettimeyolov3465msyolov3 (需取消勾选OMP_MAX_THREAD) Windows平台编译(MSVC) 1.使用CMake编译安装OpenCV4和Yaml-cpp. 2.在环境变量中添加"OpenCV_DIR"和"yaml-cpp_DIR Concat Block 如何转换模型 1.使用Pytorch加载你的模型, 并输出网络结构. import torchvision.models as models import torch from 从框架的立意来看,作者是对各个平台以及各个框架的计算过程有深刻认识的,另外作者也会持续更新支持更多的主流网络例如YOLOV5。

    2K20发布于 2020-07-10
领券