首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 工厂端部署轻量化模型

    在工厂端部署轻量化模型通过TensorRT加速的ResNet,是制造业实现实时物料追溯与质量检测的关键技术路径。以下从技术原理、实施步骤、应用场景及优化策略四个维度展开说明:一、为何选择轻量化模型模型轻量化改造架构优化: 将ResNet-50替换为ResNet-18或MobileNetV3,参数量减少80%以上。 # 步骤2:TensorRT优化(终端命令)trtexec --onnx=resnet18.onnx --saveEngine=resnet18.engine --fp16# 步骤3:C++/Python | 28W | 中小型PLC集成 || Raspberry Pi + Coral| 4 (TPU) | 5W | 简单条码识别 |3. AI方案模型选型: 基础模型:ResNet-34(ImageNet预训练) 轻量化后:剪枝至ResNet-12,INT8量化,体积从85MB→12MB。

    99710编辑于 2025-04-10
  • 来自专栏集智书童

    全新轻量化模型 | 轻量化沙漏网络助力视觉感知涨点

    Newell等人在Mask3D中提出的堆叠沙漏架构是第一个基于深度学习的HPE方法之一,因为经典方法在此之前主导了HPE文献。 在本研究中对堆叠的沙漏网络进行了架构和非架构修改,以获得一个既准确且计算效率高的模型。 在下文中对基线模型进行了简要描述。原始架构由多个堆叠的沙漏单元组成,每个沙漏单元由4个下采样和上采样级别组成。 该过程确保模型捕获局部和全局信息,这对于连贯地了解全身以获得准确的最终姿态估计非常重要。 模型的输出是每个关节的热图,该热图对每个像素处关节存在的概率进行建模。预测每个沙漏后的中间热图,并对其应用损失。 3、实验 3.1 Alternative bottlenecks 4、参考 [1].To Perceive or Not to Perceive: Lightweight Stacked Hourglass

    1.4K30编辑于 2023-02-26
  • 来自专栏IT技术订阅

    DeepSeek模型轻量化模型压缩与知识蒸馏技术解析

    引言:模型轻量化的必要性 近年来,深度学习模型在自然语言处理、计算机视觉等领域取得了突破性进展,模型参数量从百万级迅速增长至千亿甚至万亿级别。 这种方法在GPT-3的压缩实验中实现了60%的参数量减少,同时文本生成质量保持较高水平。 然而,剪枝技术仍需平衡压缩率与模型鲁棒性。过度剪枝可能导致模型失去处理复杂样本的能力。 高温(T>1)会使概率分布更平滑,增强模型对困难样本的学习能力。例如,在CIFAR-100数据集上,使用T=4的蒸馏策略可使小模型的准确率提升3%。 量化技术使模型体积减少75%,推理速度提升3-5倍;结构化剪枝可移除50%参数,延迟降低60%;知识蒸馏则使小模型性能达到教师模型的95%以上。 自动驾驶系统通过压缩3D目标检测模型,将推理延迟从100ms降至30ms,显著提升系统响应速度。 挑战与未来方向 尽管DeepSeek的技术方案成效显著,模型轻量化仍面临诸多挑战。

    3.1K30编辑于 2025-02-05
  • 来自专栏CSDN社区搬运

    轻量化的长时间序列预测模型

    通常,为了实现精确的预测,需要依赖强大而复杂的深度学习模型,例如递归神经网络(RNNs)、时间卷积网络(TCNs)和Transformer模型。 具体来说,在模型输入前减去序列的均值,并在模型输出后加回。这个过程可以减少模型对数据分布变化的敏感性。 SparseTSF在这些指标上显著优于其他模型。 为分析超参数ww对SparseTSF模型预测性能的影响,论文在ETTh1数据集上,使用不同的ww值进行实验,观察模型性能的变化。 在图a中,线性模型学习到的权重分布呈现出较为均匀的条纹状模式。这些条纹代表了模型从数据中提取的周期性特征。图b展示了SparseTSF模型学习到的权重分布。 与线性模型相比,SparseTSF模型的权重分布呈现出更明显、更密集的等间距条纹。这表明SparseTSF模型在提取周期特征方面更为有效,能够更准确地捕捉时间序列数据中的周期性模式。

    92410编辑于 2024-12-01
  • 来自专栏《Cloud Studio》

    轻量化体验 Stable Diffusion 模型

    我们提供应用模板,所有模型、插件已经下载完毕 从萌新到大师,零学习成本上手! 当前绑定腾讯云账户会自动赠送 50 机时。怕用完?别担心! 后续还有海量赠送策略在路上等你来拿~ 超能力创作工具箱 解锁职业级创作场景 : 1️⃣ 文字变神图 "a cute white cat" → 一键生成高清头像 2️⃣ 老照片重生 上传旧照→AI修复→秒变4K图片 3️⃣ 创意无限拓展 • 外绘延展:凭空拓展画面边界 • 局部重绘:指哪改哪的PS神器 4️⃣ 风格自由掌控 3D/精灵/科幻大片,50+预设风格任选 通过在设置中添加更多插件,可以拓展WebUI的能力,本应用模板中添加了中英文翻译以及风格化模板

    50010编辑于 2025-07-01
  • 来自专栏深度学习与计算机视觉

    轻量化网络:SqueezeNet模型网络结构

    SqueezeNet是轻量化网络的代表结构之一,不太严格的说,在轻量化模型这个范畴中,Squeezenet是最早的一个,其针对ImageNet数据集分类任务的模型大小只有4.8M,这还包括了最后512* ,而一个不到0.5M的模型可以得到alxnet相似的准确率是很难得的,这使得模型向移动端部署成为可能。 首先上一层的特征图会经过11的卷积核进行降维,这一点和bottleneck版的resnet是很像的,经过压缩的特征图会分别送入的11卷积核和3*3的卷积核中进行升维,让网络具有宽度,最后这两部分的特征图会进行通道串接 为什么模型小? Squeezenet模型为什么小呢,没别的,因为参数少,Squeezenet全部采用常规的空间卷积操作,在参数数量上和其他模型计算方法是一样的,所以它的模型体量小就是因为卷积核用的少,但是它并没有像论文题目中写的那样小的不超过

    1.8K10发布于 2019-05-26
  • 来自专栏澜舟科技 NLP

    模型轻量化实践路径 之 澜舟孟子预训练模型

    如图 1 右侧所示,训练一个大模型代价是巨大的,GPT-3 训练需要 460 万美金,此外,大模型落地部署的代价也极大,在工业界实际应用中不得不考虑部署的成本。 所以在摩尔定律逐渐走向终结的今天,模型轻量化是必须要考虑的。图片轻量化路径1. 而类似的下一句预测 NSP 任务在各项中文任务上的提升不太明显(如图 3 表格所示)。图片2. 图 6  表格是我们在英文权威测评榜单 GLUE 各项标准任务上进行了测评,可以看到,使用我们训练优化技术后模型可以在同等参数量下得到更高的均分。图片3. 3. 智能文档的处理预训练模型的一个优势在于对没有见过的样本有多个角度泛化的能力。

    1.9K10编辑于 2022-07-29
  • 来自专栏AI科技评论

    学界 | MnasNet论文解读:终端轻量化模型新思路

    终端轻量化神经网络模型需要同时考虑三个维度:参数少、速度快和精度高。 SqueezeNet 为了降低模型参数,替换 3x3 的卷积 kernel 为 1x1 的卷积 kernel,减少输入 3x3 卷积的 input feature map 数量,减少 pooling 。 如图 3 所示,论文划分 CNN 模型为一系列预定义的 Block 序列,逐渐降低输入分辨率和增加滤波器尺寸。 分别代表 5x5 卷积核和 3x3 卷积核计算量,通过计算可以看到,N>7 时,C5x5 计算效率大于 C3x3 计算效率: ? 很多轻量化模型重复 block 架构,只改变滤波器尺寸和空间维度。论文提出的层级搜索空间允许模型的各个 block 包括不同的卷积层。

    1.1K10发布于 2018-09-21
  • 来自专栏AIWalker

    超越MobileNet V3 | 详解SkipNet+Bias Loss=轻量化模型新的里程碑

    总结起来,本文的贡献有3个方面: 设计了损失函数,以减少随机预测在Compact CNN优化中的误导; 提出了一个有效的神经结构SkipNet模型,以增加数据点的数量与大量独特的描述特征; 在资源受限的条件下 这些工作的重点主要是优化具有大量参数的模型的性能。 相反,本文的损失是为了解决Compact模型中缺少参数而产生的问题,即随机预测可能导致优化过程中出现误导的问题。 在一个标准场景中有一个数据集 ,其中每个 ,神经网络 ,其中θ为模型参数。通常,训练的目的是通过最小化训练集的期望损失来学习模型。一般来说,分类问题的交叉熵损失为: ? 由于MobileNetV3优越的性能,所以将其作为设计基准。 ? 与MobileNetV3类似,SkipNet使用hard-swish非线性函数。从表2中可以看出,SkipNet在移动设备上的延迟与MobileNetV3相当。 ?

    1.5K30发布于 2021-07-29
  • 轻量化模型在线编辑器:开启 3D 创作 “全民时代” 的核心力量

    而广州华锐互动推出的 3D 模型在线编辑器矩阵(含家具、展厅、课件编辑器),凭借轻量化操作、多场景适配、功能模块化的核心优势,彻底打破了这一限制。 3D模型在线编辑器:适配多场景需求 我们的3D模型在线编辑器并非单一工具,而是针对不同领域痛点构建的功能矩阵,实现“场景细分+功能定制”的精准覆盖。 3D模型在线编辑器:简单好用 我们的3D模型在线编辑器能在多领域快速落地,源于三大核心优势的支撑,彻底打破3D技术的专业壁垒。 (一)操作极简:轻量化设计降低创作门槛 以“小学生都会用”为设计理念,编辑器采用“可视化拖拽+模块化配置”的操作逻辑。 随着技术迭代与用户需求深化,我们的3D模型在线编辑器将向“更智能、更开放、更个性化”方向发展。

    28810编辑于 2025-10-23
  • 来自专栏各类技术文章~

    vue3了,试试轻量化的Vuex -- Pinia?

    vue3了,试试轻量化的Vuex -- Pinia? 一, pinia介绍 Pinia 是 Vue.js 的轻量级状态管理库,最近很受欢迎。 它使用 Vue 3 中的新反应系统来构建一个直观且完全类型化的状态管理库。 Pinia的成功可以归功于其管理存储数据的独特功能(可扩展性、存储模块组织、状态变化分组、多存储创建等)。 ,安装使用Pinia 在项目根目录中打开终端,输入以下命令 yarn add pinia@next # or with npm npm install pinia@next // 该版本与Vue 3兼容 webkit-font-smoothing: antialiased; -moz-osx-font-smoothing: grayscale; text-align: center; color: #2c3e50 webkit-font-smoothing: antialiased; -moz-osx-font-smoothing: grayscale; text-align: center; color: #2c3e50

    1.7K50发布于 2021-11-04
  • 轻量化大语言模型:高效生成结构化数据

    轻量化大语言模型:高效生成结构化数据当今生成模型的一个重要特性是,能够将非结构化、部分结构化或结构不良的输入转换为符合特定模式的结构化对象,例如关系数据库固定模式、文档存储灵活模式、函数签名、API规范等 在两篇近期发表于自然语言处理实证方法会议(EMNLP)和arXiv的论文中,我们以专门的轻量化结构化对象语言模型(SoLM)的形式提出了针对此问题的原生方法。 在这种情况下,我们仅向模型输入一个已经根据模式结构化的对象,并让模型端到端地重新生成它。此时,任务不再是结构化输入,而是清理、规范化、纠正和/或完善它,并使其内部一致。 创新为了训练SoLM模型,我们使用了自监督去噪。其思想是使用现有数据库中的任何对象样本,向这些对象中引入人工噪声,并训练模型恢复其原始形式。因此,模型学会提高我们输入的任何对象的质量。 但我们也尝试了一个单独训练的置信度评分模型,该模型以LLM某个内层产生的中间表示为输入。实际上,这种方法比直接依赖模型的置信度得分效果更好。

    24210编辑于 2025-12-16
  • 来自专栏机器学习AI算法工程

    yolov8 模型架构轻量化,极致降低参数量

    模型轻量化加速是深度学习领域的重要研究方向,旨在减小模型的体积和计算复杂度,从而提高在资源受限设备上的运行效率,模型参数量在轻量化加速中扮演着至关重要的角色。 因此,在模型轻量化加速过程中,通过合理减少参数量,可以在保持模型性能的同时,实现模型轻量化。 为了降低模型参数量,研究人员采用了多种方法,如剪枝、量化、蒸馏等。 例如,如果部分率设置为 1/4,则PConv的计算量只有常规卷积的 1/16. 2.降低内存访问:与常规卷积相比,PConv减少了内存访问量,这对于输入输出(/0)受限的设备尤其有益 3.保持特征信息流 3.底层特征对齐: AFPN采用渐近融合的思想,使得不同层次的特征在融合过程中逐渐接近,减小它们之间的语义差距。通过底层特征的 逐步整合,提高了特征融合的效果,使得模型更能理解和利用不同层次的信息。 模型结构轻量化参数对比 原yolov8参数:3011043 轻量化后参数:1436977 通过以上模块的替换使得模型参数降低至原来的一半不到,且精度不变,这是通过剪枝、蒸馏都没办到的

    4.6K11编辑于 2024-05-29
  • 《探秘鸿蒙Next:模型轻量化的能源效益衡量之道》

    在鸿蒙Next的生态体系中,模型轻量化对于设备的能源效益提升至关重要。以下是一些衡量模型轻量化为鸿蒙Next设备带来能源效益的方法和要点。 - GPU功耗:对于涉及图形处理的模型,如3D场景渲染、视频处理等,监测GPU的功耗。可利用设备的功耗监测工具或第三方功耗监测软件,查看GPU在处理相关任务时的功率消耗。 通过对比原始模型轻量化模型运行时的整体功耗,能全面了解模型轻量化对设备能源消耗的影响。 例如,在智能办公场景中,使用轻量化模型的设备从满电到电量耗尽可使用8小时,而原始模型设备只能使用6小时,表明轻量化模型有助于延长电池续航。 对比原始模型轻量化模型的存储大小,以及在存储读写操作时的能源消耗,若轻量化模型存储读写能耗降低了15%,则说明在存储方面实现了能源效益提升。

    28010编辑于 2025-01-21
  • 来自专栏联远智维

    轻量化设计在3D打印中的应用

    3D打印通过逐层叠加原材料的方式,可以实现传统制造业难以解决的个性化、复杂的、高难度的制造难题,是传统制造技术的一次重要革命,广泛应用于汽车、航空、航天、医疗、教育、电子产品等领域,如下图所示。 其中,采用3D 打印方法进行产品设计所包含的关键技术主要有:1、选用何种打印材料,采用何种打印机(打印原理),如何能够降低成本?2、如何进行产品结构设计,得到所需要的三维模型? ,适用于早期模型设计、产品原理性验证 光敏树脂 SLA 表面光洁度较好、成本低 耐高温光敏树脂(70℃、100℃、280℃) SLA 有耐温要求 尼龙 SLS、MJP 耐温、强度高、表面有颗粒感 ABS 于此同时,3D打印与打印件的重量有直接的关系,因此,设计阶段采用轻量化结构设计,指导产品结构的选型,相关参数的选取,进而降低打印件的质量,提高打印件的性价比,对该技术的推广具有重要的意义。 例如:需要设计一款台灯支架,具体要求为:1、能够作为具有一定的刚度;2、台灯发光过程中具有部分热量辐射到支架上,使之温度升高(具有一定耐温性);3、尽可能实惠。

    1.8K20编辑于 2022-01-20
  • 来自专栏登神长阶

    【论文复现】基于图卷积网络的轻量化推荐模型

    概述 图卷积网络(Graph Convolution Network,GCN)已经广泛的应用于推荐系统,基于GCN的协同过滤算法(例如NGCF)缺少消融研究,此模型对NGCF进行了消融实验并提出了轻量化卷积网络 本文所涉及的所有资源的获取方式:这里 传统的GCN推荐模型(以NGCF为例) 其中的线性变换和非线性激活函数导致模型庞大,速度很慢,难于理解。 本模型的优势在于,轻量化了NGCF模型,在参数更小,速度更快的基础上,还提升了性能。 to go(dropout:{self.config['dropout']})") # print("save_txt") 核心逻辑就是去掉传统图卷积中的非线性激活函数和线性变换,轻量化模型 在parse.py中修改模型参数 3.运行main.py 部署方式 python3.8即可,拥有pytorch环境 搭建环境 pip install -r requirements.txt 参考文献

    43910编辑于 2024-11-24
  • 来自专栏YOLO大作战

    YOLOv8轻量化模型轻量化设计 | 轻量级可重参化EfficientRep| 来自YOLOv6思想

    本文解决什么问题:在几乎不保证精度下降的前提下,轻量级模型创新设计EfficientRep 在关键点检测任务中 | GFLOPs从9.6降低至8.5, mAP50从0.921下降至0.912,mAP50 在 YOLOv6 中,基于硬件友好的网络设计原则,提出了两个可缩放的可重参数Backbone和Neck以适应不同大小的模型,以及一个具有混合通道策略的高效解耦Head。

    1.9K70编辑于 2023-11-08
  • 《解锁AI模型压缩密码,开启元应用轻量化新时代》

    此时,人工智能的模型压缩技术成为了破局的关键,它如同一把精巧的手术刀,对庞大的AI模型进行“瘦身”,以适配元应用对轻量化和低能耗的严苛需求。 通过训练一个学生模型来模仿教师模型的行为,学生模型可以学习到教师模型的关键知识和决策模式。 在自然语言处理任务中,教师模型可以是一个参数众多、性能强大的语言模型,而学生模型则是经过蒸馏后的轻量化版本,尽管参数较少,但依然能够在保持一定性能的前提下,快速处理文本,实现文本分类、情感分析等功能。 适配元应用的具体策略与实践在元应用的实际场景中,模型压缩技术需要与元应用的特点紧密结合,以实现最佳的轻量化和低能耗效果。在虚拟现实(VR)和增强现实(AR)元应用中,实时性和交互性是关键。 同时,模型压缩技术与其他新兴技术,如量子计算、联邦学习的结合,也将为元应用的发展带来更多的创新机遇,推动元应用走向更加轻量化、低能耗、高性能的新时代。

    33000编辑于 2025-02-28
  • 来自专栏AI

    大语言模型轻量化:知识蒸馏的范式迁移与工程实践

    大语言模型轻量化:知识蒸馏的范式迁移与工程实践 嗨,我是LucianaiB! 总有人间一两风,填我十万八千梦。 路漫漫其修远兮,吾将上下而求索。 一、模型压缩的技术演进与知识蒸馏范式1.1 大语言模型的部署困境以GPT-3(175B参数)、PaLM(540B参数)为代表的超大规模语言模型,虽然在NLP任务中展现出惊人的泛化能力,但其部署面临三重挑战 我们将训练一个 教师模型 和 学生模型,并使用 KL 散度 损失来优化学生模型。 transforms.ToTensor()), batch_size=32, shuffle=True)train_model()代码解读:TeacherModel 和 StudentModel 分别表示大模型和小模型 通过 distillation_loss 函数,计算学生模型的蒸馏损失。训练过程中,学生模型通过学习教师模型的知识,逐步逼近其性能。五、结语知识蒸馏技术正推动大语言模型从实验室走向产业落地。

    48600编辑于 2025-02-05
  • 来自专栏语言、知识与人工智能

    最简单的模型轻量化方法:20行代码为BERT剪枝

    | 导语 BERT模型在多种下游任务表现优异,但庞大的模型结果也带来了训练及推理速度过慢的问题,难以满足对实时响应速度要求高的场景,模型轻量化就显得非常重要。 模型轻量化     模型轻量化是业界一直在探索的一个课题,尤其是当你使用了BERT系列的预训练语言模型,inference速度始终是个绕不开的问题,而且训练平台可能还会对训练机器、速度有限制,训练时长也是一个难题 目前业界上主要的轻量化方法如下: 蒸馏:将大模型蒸馏至小模型,思路是先训练好一个大模型,输入原始数据得到logits作为小模型的soft label,而原始数据的标签则为hard label,使用soft 3)Attention剪枝     在12头注意力中,每头维度是64,最终叠加注意力向量共768维。     或许可以继续优化~ 小结:对BERT系列模型来说,剪枝是一个非常不错的轻量化方法,很多下游任务可以不需要这么庞大的模型,也能达到很好的效果。

    7.9K10发布于 2019-11-22
领券