首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏机器学习AI算法工程

    yolov8 模型架构轻量化,极致降低参数

    首先,模型参数量直接决定了模型的复杂度和存储空间需求。随着深度学习技术的不断发展,模型参数数量急剧增加,导致模型体积庞大,给存储和传输带来了巨大挑战。 此外,模型参数量还影响着模型的泛化能力和鲁棒性。过多的参数可能导致模型过拟合,降低其泛化能力;而减少参数量则有助于防止过拟合,提高模型的鲁棒性。 在剪枝过程中,研究人员会识别并移除模型中的冗余连接和权重较小的参数;在量化过程中,会将模型中的高精度参数转换为低精度参数,从而减少参数数量并降低计算复杂度;在蒸馏过程中,则会将大模型的知识转移到小模型中 本文将从另外一个角度,即模型的结构设计方面,实现参数量的最小,并以YOLOV8为例子,通过模型结构的轻量化设计,在保证模型性能稳定不变的前提下极致的压缩参数量 一、设计思路 从模型结构看V8主要有两个大的模块构成 模型结构轻量化参数对比 原yolov8参数:3011043 轻量化后参数:1436977 通过以上模块的替换使得模型参数降低至原来的一半不到,且精度不变,这是通过剪枝、蒸馏都没办到的

    4.6K11编辑于 2024-05-29
  • 来自专栏k-cloud-labs

    k8s 集群容量分析工具 - kluster-capacity

    schedulerconfig= <path to schedulerconfig> --pods-from-cluster <namespace/name key of the pod> 更多运行参数及功能 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 $ . 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 $ . 如果调度器使用 LeastAllocated 策略,调度结果可能如下所示: 1 2 3 4 5 6 7 8 $ . 1 2 3 4 5 6 7 8 .

    60330编辑于 2023-03-06
  • 来自专栏燧机科技-视频AI智能分析

    教师教学质量分析评价系统 A教育大模型

    本文提出一种基于YOLOv12目标检测、RNN时序分析与情感计算的教师教学质量分析评价系统,通过“多模态感知-时序行为研判-情感-行为关联评价”机制,实现对课堂学生行为(玩手机、举手、睡觉等6类)、表情 ),集成偏振滤镜(抑制黑板反光)、自动白平衡(适应不同光照); 环境补偿模块:搭载光照传感器(量程0-100000lux)、声音传感器(检测课堂噪音>70dB),动态调整相机曝光参数(如阴天启用增益模式 (含不同年级、学科、光照场景),标注“行为(6类)+表情(7类)”共13类目标,按8:1:1划分训练/验证/测试集,引入随机遮挡(模拟书本遮挡面部)、表情增强(模拟不同光照下表情差异)提升鲁棒性; 模型轻量化 :采用通道剪枝(剪枝率28%)+ TensorRT量化(INT8精度),模型体积从112MB压缩至38MB,适配边缘设备(如瑞芯微RK3588); 注意力机制增强:在Backbone层加入CBAM(卷积块注意力模块 教师教学质量分析评价系统基于YOLOv12+RNN的深度学习算法,教师教学质量分析评价系统精准地检测到学生是否在玩手机、举手、睡觉、交头接耳、趴桌子、行走运动等行为。

    54910编辑于 2025-12-31
  • 模型、小模型参数

    ## 几个概念总参数量 = 词嵌入层参数 + 解码器层参数模型 就是在参数量上显著小于LLM的模型所有参数 都放在 safttensors 模型文件 中预训练 就是为了 生成合理的 参数值后训练 也是为了 生成合理的 参数值蒸馏、微调、强化学习,都是后训练大模型变成小模型采用"蒸馏+量化+剪枝"的组合策略 一、大模型 GPT-3 参数量详解大模型参数量是指神经网络中所有可训练权重和偏置的总数,这些参数决定了模型的学习能力和表达能力 num_heads)32前馈网络维度 (d_ff)8×dmodel=163848 \times d_{model} = 163848×dmodel​=163841. 模型参数量(参考)若词嵌入层与输出层共享权重(主流方案):总参数量 = 词嵌入层参数 + 32层解码器参数=65,660,928+2,684,354,560=2,750,015,488≈27.5 亿= 三、大模型、小模型参数差距的本质大模型参数量,本质上是用 dmodel2d_{model}^2dmodel2​ 的代价,换取高维语义空间的表达能力。

    55021编辑于 2026-01-04
  • 来自专栏Java Web

    Java 8——行为参数

    Java 8中新增的功能是自Java 1.0发布以来18年以来,发生变化最大的一次。 (1)用行为参数化把代码传递给方法 Java 8中增加了通过API来传递代码的能力,但这实在听起来太绕了,这到底在说什么! 在Java 8中,这样做起来(不止于匿名类)远远比你想象的要来得更加清晰、简洁。 这就是行为参数化:让方法接受多种行为(或战略)作为参数,并在内部使用,完成不同的行为。 你现在在灵活性和简洁性之间找到了最佳平衡点,这在Java 8之前是不可能做到的!

    1.2K70发布于 2018-04-26
  • 来自专栏linux commands

    【Python】8“函数的参数

    位置参数 按函数参数顺序传入参数,这样的参数就叫做位置参数。Java的函数中,规定调用者必须按形式参数顺序依次传入参数,这样也可以看做是位置。 return sum ... >>> calc(1,2,3) 14 >>> calc(2,4,6,8) 120 如果需要传入list或者tuple:在list或者tuple前面加上* >>> list 关键字参数 关键字参数允许调用者传入0个或者任意个含参数名的参数,这些关键字参数在函数内部自动组装为一个dict。 在Python中定义函数,可以用必选参数、默认参数、可变参数、关键字参数和命名关键字参数,这5种参数都可以组合使用。 但是请注意,参数定义的顺序必须是:必选参数、默认参数、可变参数、命名关键字参数和关键字参数

    59120发布于 2021-08-12
  • 来自专栏啄木鸟软件测试

    由人工智能参数讨论基于Bug的软件测试质量分析

    上文和大家一起讨论了人工智能样本的评价参数:准确度、精准度、召回率和F1分数。这篇文章,我们结合这些参数来讨论基于Bug的软件测试质量分析。 软件测试质量分析是软件测试工作中非常重要的管理工作,其实在没有了解准确度、精准度、召回率这些概念之前,我们其实已经多多少少使用了这些概念。 46)212(109)4(0)15(0)3(0) 这样人工测试发现的去除测试机器人发现的缺陷数据为表7: 人工测试发现的缺陷数据严重一般轻微严重一般轻微201891034153 合并表5和表7,得到表8

    99710发布于 2020-06-17
  • 来自专栏全栈程序员必看

    sklearn输出模型参数_rfm模型算法

    总第105篇 最近会开始一个新的系列,sklearn库中各模型参数解释,本篇主要讲述最基础的LR模型模型参数详解 逻辑回归: sklearn.linear_model.LogisticRegression(penalty='l2', dual=False, ‍tol=0.0001, class_weight:class_weight是很重要的一个参数,是用来调节正负样本比例的,默认是值为None,也就是正负样本的权重是一样的,你可以以dict的形式给模型传入任意你认为合适的权重比, 比如,有一数据集的正负样本绝对数量比为4:6,如果你给参数class_weight赋予balanced值,那么最后模型结果中,正负样本的权重比就会变成6:4。 set_params(**params):为估计器设置参数 你还可以看: 逻辑斯蒂回归模型 版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。

    1K10编辑于 2022-11-04
  • 来自专栏编程从踩坑到跳坑

    JAVA 8 反射获取参数

    前言 在JDK8之前javac编译是不会把构造器和方法的参数名编译进class中,如果需要获取参数名,可以在方法上加上注解,反射获取注解的值从而获取参数名,比如Jackson的@JsonCreator 而JDK8新增了这一个功能,可以直接调用java.lang.reflect.Parameter.getName()获取到,前提是javac需要添加-parameters这个参数。 : false 可以看出Parameter name全都是arg0~argN,因为参数名在编译期已经丢失了。Is name present为false。 /source> <target>8</target> <compilerArgument>-parameters</compilerArgument : false 这样就把参数名给打印出来了,Is name present为true。

    1.6K10发布于 2019-12-20
  • 来自专栏张俊红

    Sklearn参数详解—LR模型

    总第105篇 最近会开始一个新的系列,sklearn库中各模型参数解释,本篇主要讲述最基础的LR模型模型参数详解 逻辑回归: sklearn.linear_model.LogisticRegression(penalty='l2', dual=False, ‍tol=0.0001, class_weight:class_weight是很重要的一个参数,是用来调节正负样本比例的,默认是值为None,也就是正负样本的权重是一样的,你可以以dict的形式给模型传入任意你认为合适的权重比, 比如,有一数据集的正负样本绝对数量比为4:6,如果你给参数class_weight赋予balanced值,那么最后模型结果中,正负样本的权重比就会变成6:4。 模型对象 coef_:返回各特征的系数,绝对值大小可以理解成特征重要性 intercept_:返回模型的截距 n_iter_:模型迭代次数 模型方法 decision_function(X):返回决策函数值

    7.8K60发布于 2018-06-11
  • 来自专栏深度学习自然语言处理

    GLoRA—高效微调模型参数

    RepAdapter:RepAdapter将轻量级网络插入到预先训练的模型中,并且在训练后,额外的参数将被重新参数化为附近的投影权重。 根据之前的工作,本文评估了shot为1、2、4、8和16下的结果。 它们之间的区别仅在于搜索空间中的LoRA维度,该维度在最大模型中为8和4,在中间模型中为4和2,在最小模型中为2。本文方法中增加的参数灵活性允许在最终模型中进行用户定义的可训练参数计数。 将最先进的参数有效迁移学习提高了2.9%,即使是最小的模型也大大优于所有现有方法。 1、2、4、8和16的shot结果如下图所示。GLoRA在大多数few-shot learning数据集中表现出卓越的功效,在参数计数相似的情况下,其性能始终大大优于现有方法。

    85710编辑于 2023-08-22
  • 来自专栏Python与算法之美

    8模型的训练

    根据问题特点选择适当的估计器estimater模型: 分类(SVC,KNN,LR,NaiveBayes,...) 回归(Lasso,ElasticNet,SVR,...) 一,分类模型的训练 ? ? ? ? ? ? ? ? ? 二,回归模型的训练 ? ? ? ? ? ? ? ? 三,聚类模型的训练 KMeans算法的基本思想如下: 随机选择K个点作为初始质心 While 簇发生变化或小于最大迭代次数: 将每个点指派到最近的质心,形成K个簇 重新计算每个簇的质心 ? transformers),最后一个estimator可以是任意类型(transformer,classifier,regresser) 管道本身可以看成一个超级estimater,可用GridSearchCV等方式进行超参数优化 可以结合FeatureUnion 和 Pipeline 来创造出更加复杂的模型。 ?

    82031发布于 2020-07-17
  • 来自专栏机器之心

    650亿参数8块GPU就能全参数微调:邱锡鹏团队把大模型门槛打下来了

    在 LLM 模型调优过程中通常又需要昂贵的 GPU 资源,例如 8×80GB 的 GPU 设备,这使得小型实验室和公司很难参与这一领域的研究。 因此,新方法能够在一台具有 8×RTX 3090 的机器上对 65B 模型进行全参数微调,每个 RTX 3090 具有 24GB 内存。 该研究评估了 LOMO 的内存和吞吐量性能,表明借助 LOMO,研究者在 8 个 RTX 3090 GPU 上就可以训练 65B 参数模型。 至于 13B 模型,由于内存的限制,它无法在现有的 8 个 RTX 3090 GPU 上用 AdamW 训练。 最后,研究者使用 8 个 RTX 3090 GPU 成功训练了 65B 模型,实现了 4.93 TGS 的吞吐量。

    92950编辑于 2023-08-07
  • 来自专栏机器学习算法与Python学习

    8亿参数,刷新ImageNet纪录:何恺明团队开源最强ResNeXt预训练模型

    它叫ResNeXt WSL,有超过8亿个参数,用Instagram上面的9.4亿张图做了 (弱监督预训练) ,用ImageNet做了微调。 所以现在好了,你并不需要做这样大大大量的计算,可以直接从预训练的模型开始。 更好的是,开源的不止这一个模型。 究竟是有多强大 预警:先交代一下历史,后面是最新的成绩。 在网络不加深不加宽的情况下,就能提升准确率,还能减少超参数的数量。 一个101层的ResNeXt,准确率已媲美200层的ResNet。于是,它也中选了CVPR。 一行代码可调用 现在,四个预训练模型都已经开源。 加载只需: 1import torch 2model = torch.hub.load( facebookresearch/WSL-Images , resnext101_32x8d_wsl ) 3#

    1.1K30发布于 2019-07-04
  • 来自专栏量子位

    8亿参数,刷新ImageNet纪录:何恺明团队开源最强ResNeXt预训练模型

    它叫ResNeXt WSL,有超过8亿个参数,用Instagram上面的9.4亿张图做了 (弱监督预训练) ,用ImageNet做了微调。 所以现在好了,你并不需要做这样大大大量的计算,可以直接从预训练的模型开始。 更好的是,开源的不止这一个模型。 究竟是有多强大 预警:先交代一下历史,后面是最新的成绩。 在网络不加深不加宽的情况下,就能提升准确率,还能减少超参数的数量。 一个101层的ResNeXt,准确率已媲美200层的ResNet。于是,它也中选了CVPR。 一行代码可调用 现在,四个预训练模型都已经开源。 加载只需: 1import torch 2model = torch.hub.load('facebookresearch/WSL-Images', 'resnext101_32x8d_wsl') 3#

    1.2K30发布于 2019-07-09
  • 来自专栏机器之心

    130亿参数8个A100训练,UC伯克利发布对话模型Koala

    研究团队表示,Koala 模型在 EasyLM 中使用 JAX/Flax 实现,并在配备 8 个 A100 GPU 的单个 Nvidia DGX 服务器上训练 Koala 模型。 研究团队将 Koala 与 ChatGPT 和斯坦福大学的 Alpaca 进行了实验比较,结果表明:具有 130 亿参数的 Koala-13B 可以有效地响应各种用户查询,生成的响应通常优于 Alpaca 研究团队希望 Koala 模型成为未来大型语言模型学术研究的有用平台,潜在的研究应用方向可能包括: 安全性和对齐:Koala 允许进一步研究语言模型的安全性并更好地与人类意图保持一致。 模型偏差:Koala 使我们能够更好地理解大型语言模型的偏差,深入研究对话数据集的质量问题,最终有助于改进大型语言模型的性能。 理解大型语言模型:由于 Koala 模型可以在相对便宜的消费级 GPU 上运行,并且执行多种任务,因此 Koala 使我们能够更好地检查和理解对话语言模型的内部结构,使语言模型更具可解释性。

    81120编辑于 2023-04-06
  • 来自专栏自动化测试实战

    pytest入门 -8 参数化、YAML介绍

    1、@pytest.mark.parametrize()基本用法 @pytest.mark.parametrize(args_name, args_value) args_name:参数名,用于将参数值传递给函数 /方法 args_value:参数值(列表、元组、字典列表、字典元组)有多少值用例就会执行多少次。 当参数值为字典等其他非字符串类型时,需要转换成字符串类型。 最基本的用法: 例1 执行用例: 例2:列表中含字典 执行结果: 例3:多参数 执行结果: 2、yaml格式测试用例读写 大家应该记得,fixture有一个params参数,可以进行用例传参 ,但是fixture更倾向于前后置操作,而yaml更多用于实现参数化。

    1.6K10编辑于 2022-02-23
  • 来自专栏自然语言处理

    模型生成解码参数速查

    控制输出长度的参数 控制所使用的生成策略的参数 用于操作模型输出 logits 的参数 定义“generate”输出变量的参数 可以在生成时使用的特殊字符

    24610编辑于 2024-01-09
  • 来自专栏技术分享

    ChatGPT模型请求参数学习

    请求响应参数详情: 如果刚开始进行开发, 只用对必须携带的参数进行测试, 等项目熟练了之后再将所有的参数都进行测 查看可用的请求正文 : curl https://api.openai.com/v1 与GPT-4 Turbo和所有GPT-3.5 Turbo模型兼容。 type 是一个可选的字符串参数,默认值为 text。 如果省略parameters,则定义了一个参数列表为空的函数。 tool_choice (string or object,可选):控制模型调用的函数(如果有)。 request.newBuilder().header(Header.AUTHORIZATION.getValue(), "Bearer " + "sk-dS9kPBZCiUXEN9jh133c8f44A5984dAc8f1350E18c71XXXX 通过创建问答模型的问答请求对象, 然后将上述的Message内容 和 需要的一些其他参数传递进去。

    1K10编辑于 2024-05-31
  • 来自专栏计算机视觉战队

    650亿参数8块RTX 3090 GPU就能全参数微调

    在 LLM 模型调优过程中通常又需要昂贵的 GPU 资源,例如 8×80GB 的 GPU 设备,这使得小型实验室和公司很难参与这一领域的研究。 因此,新方法能够在一台具有 8×RTX 3090 的机器上对 65B 模型进行全参数微调,每个 RTX 3090 具有 24GB 内存。 该研究评估了 LOMO 的内存和吞吐量性能,表明借助 LOMO,研究者在 8 个 RTX 3090 GPU 上就可以训练 65B 参数模型。 至于 13B 模型,由于内存的限制,它无法在现有的 8 个 RTX 3090 GPU 上用 AdamW 训练。 最后,研究者使用 8 个 RTX 3090 GPU 成功训练了 65B 模型,实现了 4.93 TGS 的吞吐量。

    99520编辑于 2023-08-24
领券