首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 工厂端部署轻量化模型

    在工厂端部署轻量化模型通过TensorRT加速的ResNet,是制造业实现实时物料追溯与质量检测的关键技术路径。以下从技术原理、实施步骤、应用场景及优化策略四个维度展开说明:一、为何选择轻量化模型? 工厂端部署的核心需求实时性要求:生产线节奏快(焊接工位节拍≤60秒),模型推理需在毫秒级响应。资源限制:工厂边缘设备(工业PC、Jetson AGX Orin)算力有限,需降低模型计算负载。 模型轻量化改造架构优化: 将ResNet-50替换为ResNet-18或MobileNetV3,参数量减少80%以上。 解决方案: 在线学习(Online Learning):部署模型后,持续用产线新数据微调(需设计自动标注流程)。 AI方案模型选型: 基础模型:ResNet-34(ImageNet预训练) 轻量化后:剪枝至ResNet-12,INT8量化,体积从85MB→12MB。

    99710编辑于 2025-04-10
  • 来自专栏AI人工智能

    边缘智能体:轻量化部署与离线运行

    边缘智能体:轻量化部署与离线运行 Hello,我是摘星! 在彩虹般绚烂的技术栈中,我是那个永不停歇的色彩收集者。 每一个优化都是我培育的花朵,每一个特性都是我放飞的蝴蝶。 图1 边缘智能体整体架构图1.2 核心设计原则边缘智能体的设计需要遵循以下核心原则:设计原则具体要求实现策略轻量化模型大小<100MB模型压缩、知识蒸馏低延迟推理时间<100ms模型优化、硬件加速低功耗功耗 self.decision_engine = DecisionEngine() def _load_lightweight_model(self, model_path: str): """加载轻量化模型 : """部署最佳实践""" @staticmethod def deployment_checklist(): """部署检查清单""" return 'AI技术成熟', '边缘计算需求' ] }总结作为一名深耕AI技术多年的博主摘星,通过本文对边缘智能体轻量化部署与离线运行的全面探讨

    75911编辑于 2025-07-24
  • 来自专栏计算机魔术师

    【腾讯云|云原生】自定制轻量化表单Docker快速部署

    本文将为展示在该服务器上部署轻量化定制表单服务为例带你一文走进该服务器的方方面面。 在这里插入图片描述 图片 先放效果图!! Github开源地址✨✨: 自定制轻量化表单 一款基于pywebio 快速开发的表单,实现设置每个校区每个时间段只能被预约一次。 (可以选择各种后端框架或者是内置服务器) 图片 图片


    部署教程 ✨✨ 首先进入到服务器后,我们需要安装docker环境。 ✨✨ 运行命令: docker run -p 9000:9000 fast_form 图片 部署成功!! Github开源地址✨✨: 自定制轻量化表单 有问题欢迎大家提出issues! 如果喜欢请点点一个小小的star!! 点赞,关注收藏!

    60710编辑于 2023-10-12
  • 来自专栏全栈工程师修炼之路

    轻量化HTTP服务器环境快速搭建部署

    [TOC] 0x01 快速搭建轻量化HTTP服务器 描述:在做运维或者安全相关的测试项目的时候,需要快速搭建HTML服务器环境来下载文件或者POC,主要针对于HTML代码与文件浏览下载; 1.Python 最近有个项目要构建一个轻量化的HTTP服务器,而且需要支持HTTPS 因为要求最好不使用IIS,所以用的是HttpListener类,HTTP部分已经完成,但是在增加HTTPS支持时出现报错 已知需要支持

    1.4K10编辑于 2022-09-28
  • 来自专栏计算机魔术师

    【腾讯云|云原生】自定制轻量化表单Docker快速部署

    本文将为展示在该服务器上部署轻量化定制表单服务为例带你一文走进该服务器的方方面面。先放效果图!! Github开源地址✨✨: 自定制轻量化表单一款基于pywebio 快速开发的表单,实现设置每个校区每个时间段只能被预约一次。 (可以选择各种后端框架或者是内置服务器)


    部署教程 ✨✨首先进入到服务器后,我们需要安装docker环境。 ✨✨运行命令:docker run -p 9000:9000 fast_form部署成功!! 表单链接 ✨✨ 接着我们进入到服务器看业务是否流程正常可以看到,提交的数据被很好的保存了!! Github开源地址✨✨: 自定制轻量化表单有问题欢迎大家提出issues! 如果喜欢请点点一个小小的star!! 点赞,关注收藏!

    47120编辑于 2023-11-09
  • 来自专栏Docker项目实战

    轻量化知识库方案:Docker部署Dokuwiki 的最佳实践

    hostnameIP地址操作系统版本Docker版本部署项目jeven01192.168.3.88Ubuntu24.04.2LTS28.3.3Dokuwiki2.2本次实践介绍1.本次实践部署环境为个人测试环境 ,生产环境请谨慎;2.在Docker环境下部署Dokuwiki个人知识库。 Dokuwiki服务5.1创建部署目录创建部署目录展开代码语言:BashAI代码解释mkdir-p/data/dokuwiki/config&&cd/data/dokuwiki目录授权展开代码语言:BashAI 代码解释chmod-R755/data/dokuwiki/5.2编辑部署文件使用docker-cli方式部署,可参考以下命令:展开代码语言:BashAI代码解释dockerrun-d\--name=dokuwiki 八、总结通过本次Docker部署Dokuwiki的实践,成功构建了一个轻量级、可移植的个人知识库系统,显著提升了部署效率与环境一致性。

    71600编辑于 2026-01-07
  • 来自专栏计算机魔术师

    【腾讯云|云原生】自定制轻量化表单Docker快速部署

    🙋‍♂️声明:本人目前大学就读于大二,研究兴趣方向人工智能&硬件(虽然硬件还没开始玩,但一直很感兴趣!希望大佬带带)

    79930编辑于 2023-09-30
  • 轻量化 vs 定制化:不同规模企业如何选择 MyEMS 部署模式?

    然而,市场上的 MyEMS 部署方案大致分为 “轻量化” 与 “定制化” 两类,前者开箱即用、成本低,后者深度适配、灵活性高 —— 不同规模的企业该如何抉择? 一、核心认知:轻量化与定制化 MyEMS 的本质差异要做出正确选择,首先需明确两种部署模式的核心定义与适用边界。 二者并非 “优劣对立”,而是针对不同需求场景的设计,其差异体现在部署方式、功能模块、成本周期等多个维度:对比维度轻量化部署(SaaS / 标准化部署)定制化部署(私有部署 / 深度开发)核心定义基于标准化模块的 轻量化部署的适配性:成本可控:订阅式付费无需一次性投入大量资金,避免占用企业流动资金(例如小型餐饮店每年仅需 8000 元,即可实现门店水电气数据的实时查看与月度报表生成);上手快:标准化界面操作简单, 四、结语:没有 “最好”,只有 “最适配”轻量化与定制化 MyEMS 部署模式,并无绝对的 “优劣之分”—— 轻量化胜在 “低成本、快落地”,适合需求简单的小微企业;定制化胜在 “深适配、高价值”,适合需求复杂的大型企业

    23010编辑于 2025-10-14
  • 复杂部署退退退!DeepSeek-OCR 轻量化文档理解,3分钟私有部署搞定

    在Lab4AI平台,你只需3分钟即可私有部署,让系统从识字工具跃升为“文档理解专家”。 3分钟极速部署体验Lab4AI.cn上已上架了此篇论文的部署。 Lab4AI项目指路Step1启动项目登录Lab4AI,在“项目复现”中找到DeepSeek-OCR轻量化复现方案,选择GPU资源进行项目复现,平台将自动创建运行环境,无需手动安装依赖。 Step2模型部署参考官方文档完成模型部署,系统完成推理服务上线,跳转链接即可体验。Step3应用体验您可以可上传文档进行测试。本次实践支持从文字提取到表格解析再到图表与语义定位的全流程交互。

    59700编辑于 2025-12-03
  • 来自专栏集智书童

    项目实践 | 从零开始边缘部署轻量化人脸检测模型——训练篇

    2数据处理 2.1 输入尺寸的选择 由于涉及实际部署时的推理速度,因此模型输入尺寸的选择也是一个很重要的话题。 在作者的原github中,也提到了一点,如果在实际部署的场景中大多数情况为中近距离、人脸大同时人脸的数量也比较少的时候,则可以采用 的输入尺寸; 如果在实际部署的场景中大多数情况为中远距离、人脸小同时人脸的数量也比较多的时候 ,则可以采用 或者 的输入尺寸; 这里由于使用的是EAIDK310进行部署测试,边缘性能不是很好,因此选择原作者推荐的最小尺寸 进行训练和部署测试。 6模型转换 由于部署使用的是Tengine边缘推理框架,由于pytorch输出的模型无法直接转换到tmfile模型下,因此还是选择使用onnx中间件的形式进行过度,具体实现代码如下: model_path verbose=False, input_names=['input'], output_names=['scores', 'boxes']) 得到onnx模型后便可以进行Tengine模型的转换和部署

    1.2K40发布于 2021-07-07
  • 来自专栏机器之心

    多硬件支持、轻量化部署等,百度Paddle Lite特性全解读

    它支持多种硬件、多种平台,还具备轻量化部署、高性能实现等重要特性。 特性&能力 Paddle Lite 支持如下特性:①多硬件平台支持;②轻量化部署;③高性能实现;④量化计算支持。下面我们一一介绍。 1.1. 轻量级部署 完善的多硬件平台支持必须至少有如下支持,比如完整的各类硬件后端支持,多份硬件相关算子的实现,计算图详尽的分析和优化能力。这些能力的支持必然带来最终部署库的体积膨胀,难以轻量化部署。 在体积敏感的场景下,Paddle Lite 可以选择轻量化部署方案,即可以只部署执行阶段,而复杂的分析优化则封装到了离线工具中。 模型转换 为了满足手机端轻量化部署的需求,我们会在离线阶段进行模型结构的分析和优化,并将优化后的模型序列化到 Naive Buffer 的格式,从而减少部署包的体积,并实现无第三方依赖。

    1.7K20发布于 2019-09-29
  • 来自专栏集智书童

    项目实践 | 从零开始边缘部署轻量化人脸检测模型——EAIDK310部署

    继续上一章的话题,前面我们主要聊到关于人脸检测模型UltraFace的训练任务,本文将和大家讨论在开发板上如何部署UltraFace模型,并进行实时视频人脸检测,或者图片流人脸检测。 1Tengine简介 Tengine 由 OPEN AI LAB 主导开发,该项目实现了深度学习神经网络模型在嵌入式设备上的快速、高效部署需求。 为实现在众多 AIoT 应用中的跨平台部署,本项目基于原有 Tengine 项目使用 C 语言进行重构,针对嵌入式设备资源有限的特点进行了深度框架裁剪。 同时采用了完全分离的前后端设计,有利于 CPU、GPU、NPU 等异构计算单元的快速移植和部署,同时降低评估和迁移成本。 Tengine推理流程 依照顺序调用Tengine核心API如下: ?

    1.1K20发布于 2021-07-07
  • QClaw本地部署实测|零代码落地、本地隐私防护,企业轻量化AI Agent部署指南

    一、QClaw技术定位与核心架构概述QClaw基于OpenClaw开源框架封装,是腾讯电脑管家推出的轻量化本地AI智能体,核心技术定位为「本地执行+微信直连+隐私计算」,解决传统AIAgent部署门槛高 核心架构采用分层设计,确保本地执行效率与安全隔离,整体架构分为5层,各层职责清晰、解耦性强,适配企业轻量化自动化场景:接入层:微信协议适配与扫码认证模块,实现微信聊天框与AI控制台的无缝对接,支持文字、 /混合部署,数据主权可控部署成本零代码,3分钟快速部署需配置服务器/容器,部署耗时≥2小时可视化部署向导,企业级流程部署≤30分钟运维难度轻量化,支持自动更新,运维成本低需专业运维团队,维护成本高统一管控平台 ,可降低70%运维成本响应延迟本地执行,≤2秒网络传输+云端处理,≥5秒边缘计算优化,延迟≤1.5秒定制能力基础技能扩展,适配轻量化场景高定制化,开发成本高低代码技能开发,适配企业复杂跨系统场景选型建议 :小型企业优先选择QClaw标准部署,快速落地轻量化AI自动化;中型企业可采用QClaw+私有模型组合,平衡部署效率与数据安全;大型企业可考虑实在Agent企业版,其跨系统集成能力与细粒度权限管控,更适配复杂企业

    1.4K00编辑于 2026-03-30
  • 来自专栏DevOps时代的专栏

    轻量化 Jenkins 最佳实践

    前言 今天分享主题主要分成三个部分: 第一部分,Jenkins跟持续交付; 第二部分,Jenkins轻量化思路; 第三部分,Jenkins高可用实践。 二、Jenkins轻量化思路 2.1、使用jenkins的常见问题 接下来就是我今天所要谈的重点,刚才解释了为什么Jenkins所代表的CI/CD如此之重要,但现实里Jenkins还是会出现这样那样的问题 我们不希望Jenkins承载更多的东西,这也是为什么我提出轻量化Jenkins的概念,初衷在于给Jenkins减负。 ? 接下来我们看一看Jenkins的系统架构。 2.6、轻量化解决之道 那么轻量化的概念到底是什么意思呢? 那么在实践Jenkins轻量化解决之道的过程中,我总结了一些套路和体系,其中以下八点内容希望可以帮助大家解决一些实际生产工作中Jenkins的性能问题,同时扩展大家的思路,共同探索Jenkins应用的最佳实践

    4.9K90发布于 2018-02-02
  • 来自专栏PaddlePaddle

    Paddle Lite特性全解读,多硬件支持、轻量化部署等亮点频现

    它支持多种硬件、多种平台,还具备轻量化部署、高性能实现等重要特性。 特性&能力 Paddle Lite 支持如下特性:①多硬件平台支持;②轻量化部署;③高性能实现;④量化计算支持。下面我们一一介绍。 1.1. 轻量级部署 完善的多硬件平台支持必须至少有如下支持,比如完整的各类硬件后端支持,多份硬件相关算子的实现,计算图详尽的分析和优化能力。这些能力的支持必然带来最终部署库的体积膨胀,难以轻量化部署。 在体积敏感的场景下,Paddle Lite 可以选择轻量化部署方案,即可以只部署执行阶段,而复杂的分析优化则封装到了离线工具中。 模型转换 为了满足手机端轻量化部署的需求,我们会在离线阶段进行模型结构的分析和优化,并将优化后的模型序列化到 Naive Buffer 的格式,从而减少部署包的体积,并实现无第三方依赖。

    1.1K10发布于 2019-09-27
  • 轻量化开源知识管理核心技术拆解:部署、功能与AI能力

    开源基础与定位轻量化AI知识管理系统面向中小团队、个人开发者与小型组织,基于开源协议打造,支持私有化部署,代码可审计、数据自主可控,无强制订阅与云端绑定,适配内网隔离、数据敏感等合规场景。 部署与模型接入• 部署:Docker容器化封装,支持公网与内网环境,一键脚本完成环境初始化,默认端口2443,可通过Nginx反向代理适配域名访问。 落地方案:智能解析与知识管理协同部署1. 基础设施:在内网服务器部署轻量化AI知识管理系统,配置LDAP认证,仅团队成员可访问,保障学术数据安全。2. 轻量化知识管理系统使用心得• 轻量化优势显著:对比Confluence、MediaWiki,部署与维护成本降低90%,5分钟内完成安装,适合快速落地。 五、总结轻量化AI知识管理系统以AI驱动、轻量化、开源可控为核心,解决传统知识库部署复杂、检索低效、智能化不足的问题;智能文档解析技术补齐非结构化文档处理短板,实现PDF、扫描件等复杂文档到标准知识的高效转换

    18410编辑于 2026-04-10
  • 来自专栏AIOps

    轻量化运维神器!吴文豪详解BlueKing Lite:智能不笨重,部署更灵活

    1)轻量化:在资源约束下重新设计我们将传统运维平台与BlueKingLite进行对比,直观感受轻量化带来的优势。以“经典运维平台”为例,其自身运行所需的内存资源往往需要128G内存。 其中,每个模块都能独立部署、独立运行,用户可以根据具体需求灵活地选用和组合功能,避免了不必要的资源浪费和功能冗余。用户可以在需要时才逐步增加功能,避免一次性面对繁杂的系统。 边缘自治架构通过在每个站点部署完整的BlueKingLite服务,使其具备本地化的运维能力。即便网络中断,边缘自治节点仍可独立完成监控、告警及数据分析等核心运维任务。 具体来说,日志处理选择新一代引擎,在保持检索性能的同时降低存储成本;监控指标选择⾼效时序数据库,保证查询速度的同时降低写入压力;CMDB选择图数据库,多层关联查询不再是性能瓶颈;部署方式基于容器编排,资源调度

    38110编辑于 2025-12-03
  • 来自专栏自然语言处理(NLP)论文速递

    NeurIPS 2022 | 模型轻量化部署!?根源分析异常值对Transformer的影响(含源码)

    随着大型NLP模型的发展趋势,不断增加的内存和计算成本阻碍了它们在低资源设备上的部署。最近研究工作发现结构化异常值是量化性能的关键瓶颈,但目前方法增加了计算开销并且仍然存在异常值。

    1K20编辑于 2022-12-06
  • 来自专栏集智书童

    全新轻量化模型 | 轻量化沙漏网络助力视觉感知涨点

    人体姿态估计(HPE)是计算机视觉中的一项经典任务,它主要通过识别人的关节的位置来表示人的方向。HPE可以用来理解和分析人类的几何和运动相关信息。Newell等人在Mask3D中提出的堆叠沙漏架构是第一个基于深度学习的HPE方法之一,因为经典方法在此之前主导了HPE文献。

    1.4K30编辑于 2023-02-26
  • 来自专栏SIGAI学习与实践平台

    轻量化神经网络综述

    目前工业级和学术界设计轻量化神经网络模型主要有4个方向:(1)人工设计轻量化神经网络模型、(2)基于神经网络架构搜索(Neural Architecture Search,NAS)的自动化设计神经网络; 1基本卷积运算 手工设计轻量化模型主要思想在于设计更高效的“网络计算方式”(主要针对卷积方式),从而使网络参数减少,并且不损失网络性能。 2、以google的NAS为基础,很多模型专注于优化模型的准确率而忽视底层硬件和设备,仅考虑准确率高的模型难以在移动终端部署。 CNN模型压缩是在计算资源有限、能耗预算紧张的移动设备上有效部署神经网络模型的关键技术。本文简介概述CNN模型压缩主流算法,重点介绍如何实现基于AutoML的模型压缩算法。 这对于将模型部署到手机之外的终端设备是非常有用的(注:目前无参考文献论述TensorFlow Lite 的post-training模型量化原理,但是从源代码可见压缩方式是采用Int8)。

    4.7K51发布于 2018-09-27
领券