首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏学弱猹的精品小屋

    广义线性模型(GLM)专题(2)——带约束的假设检验,模型诊断,01变量分析与建模

    Definition 1: Saturated Model, Null Model 如果对于每一个数据点我都对应一个参数,这么拟合出来的模型定义为饱和模型。 如果对于所有数据点均使用同一个参数拟合,这种模型定义为零模型。 如果我们假设对于每一个数据点,我们有一个估计,那么对于saturated model,,而对于null model,。 这里的是参数个数,包括截距。 从构造中也不难看出,模型拟合最好的情况就是Saturated Model,每一个数据点都会被拟合且没有误差,所以偏差就是在衡量我们的模型与这种理想情况的差距。 如果参数的,一般认为多重共线性的问题不大,但如果,就要解决一下这个问题了。 这里有个细节要注意的是,在广义线性模型中,我们关心的是对应的参数的多重共线性问题。 虽然在这里我们没有写太多,但是事实上这个2*2的列联表是非常重要的 逻辑回归 逻辑回归是非常重要的一个用于拟合0/1变量的模型,我们在 https://zhuanlan.zhihu.com/p/52752248

    2K20编辑于 2022-03-30
  • 来自专栏计算机视觉理论及其实现

    batchnorm2d参数 torch_Pytorch自由载入部分模型参数并冻结

    Pytorch的load方法和load_state_dict方法只能较为固定的读入参数文件,他们要求读入的state_dict的key和Model.state_dict()的key对应相等。 而我们在进行迁移学习的过程中也许只需要使用某个预训练网络的一部分,把多个网络拼和成一个网络,或者为了得到中间层的输出而分离预训练模型中的Sequential 等等,这些情况下。 网上查“载入部分模型”,“冻结部分模型”一般都是只改个FC,根本没有用,初学的时候自己写state_dict也踩了一些坑,发出来记录一下。 ----一.载入部分预训练参数我们先看看Mobilenet的结构( 来源github,附带预训练模型mobilenet_sgd_rmsprop_69.526.tar)class Net(nn.Module 137变成65了,前十个参数看出,名字变了但是顺序其实没变。

    1.2K10编辑于 2022-09-02
  • 来自专栏全栈程序员必看

    tensorflow模型查看参数(pytorch conv2d函数详解)

    padding – filter_w)/strid_w) + 1 举例说明: 假设这里使用的图像每副只有一行像素一通道,共3副图像 >>> a = np.array([[1,1,1],[2,2,2 , [2], [2]]], [[[3], [3], [3]]]]) 然后设有2个1*2的卷积核 >>> k=tf.constant([[[[ 1.0, 1.0]],[[2.0, 2.0]]]], dtype [ 1.]]], [[[ 2.], [ 2.], [ 2.]]], [[[ 3.], [ 3.], [ 3.]]]], dtype=float32) >>> sess.run(k) array([[[[ 1., 1.]], [[ 2., 2.]]]], dtype=float32) 最后的0是函数自动填充的,所以最后就得到了一个2通道的卷积结果 将k改成[[ 1.0, 0.5],[2, 1 ]]然后再次运行: >>> k=tf.constant([[[[ 1.0, 0.5]],[[2, 1]]]], dtype=tf.float32) >>> mycov=tf.nn.conv2d(b, k

    1.1K30编辑于 2022-07-30
  • 来自专栏燧机科技-视频AI智能分析

    教师教学质量分析评价系统 A教育大模型

    本文提出一种基于YOLOv12目标检测、RNN时序分析与情感计算的教师教学质量分析评价系统,通过“多模态感知-时序行为研判-情感-行为关联评价”机制,实现对课堂学生行为(玩手机、举手、睡觉等6类)、表情 人教室(检测距离3-8米),集成偏振滤镜(抑制黑板反光)、自动白平衡(适应不同光照); 环境补偿模块:搭载光照传感器(量程0-100000lux)、声音传感器(检测课堂噪音>70dB),动态调整相机曝光参数 # 通道剪枝(示例参数) prune_ratio = 0.28 for m in model.model.modules(): if isinstance(m, torch.nn.Conv2d :每周收集教师反馈样本(如“举手但未发言”的特殊场景),通过增量训练更新LSTM参数(实验室数据显示迭代3次后误报率降至2.7%); 低侵入部署:相机隐蔽安装于教室后方,不干扰教学,支持POE供电(功耗 教师教学质量分析评价系统基于YOLOv12+RNN的深度学习算法,教师教学质量分析评价系统精准地检测到学生是否在玩手机、举手、睡觉、交头接耳、趴桌子、行走运动等行为。

    54910编辑于 2025-12-31
  • 模型、小模型参数

    ## 几个概念总参数量 = 词嵌入层参数 + 解码器层参数模型 就是在参数量上显著小于LLM的模型所有参数 都放在 safttensors 模型文件 中预训练 就是为了 生成合理的 参数值后训练 也是为了 生成合理的 参数值蒸馏、微调、强化学习,都是后训练大模型变成小模型采用"蒸馏+量化+剪枝"的组合策略 一、大模型 GPT-3 参数量详解大模型参数量是指神经网络中所有可训练权重和偏置的总数,这些参数决定了模型的学习能力和表达能力 模型参数量(参考)若词嵌入层与输出层共享权重(主流方案):总参数量 = 词嵌入层参数 + 32层解码器参数=65,660,928+2,684,354,560=2,750,015,488≈27.5 亿= \text{ 亿}}=65,660,928+2,684,354,560+65,660,928=2,815,676,416≈28.16 亿 补充说明:Phi-3-mini 官方标称参数量约 3.8B,上述计算差异源于模型的轻量化优化 三、大模型、小模型参数差距的本质大模型参数量,本质上是用 dmodel2d_{model}^2dmodel2​ 的代价,换取高维语义空间的表达能力。

    55021编辑于 2026-01-04
  • 来自专栏啄木鸟软件测试

    由人工智能参数讨论基于Bug的软件测试质量分析

    上文和大家一起讨论了人工智能样本的评价参数:准确度、精准度、召回率和F1分数。这篇文章,我们结合这些参数来讨论基于Bug的软件测试质量分析。 软件测试质量分析是软件测试工作中非常重要的管理工作,其实在没有了解准确度、精准度、召回率这些概念之前,我们其实已经多多少少使用了这些概念。 在这期间发现了m个Bug,其中研发人员发现的Bug数量为a个(a1个为有效缺陷、a2个为无效缺陷,a1+a2=a),研发人员发现的Bug数量为b个(b1个为有效缺陷、b2个为无效缺陷,b1+b2=b)。 这样我们就可以定义真阳性Bug为a1个,假阳性Bug为a2,真阴性Bug为b1个,假阴性Bug为b2。接下来我们将缺陷乘以严重等级(严重×5,一般×3 轻微×1),就可以获得混淆矩阵。 上表中客户发现的有效缺陷中严重10中2个是事后发现的;一般24中5个是事后发现的;轻微46中15个是事后发现的。

    99710发布于 2020-06-17
  • 来自专栏全栈程序员必看

    sklearn输出模型参数_rfm模型算法

    总第105篇 最近会开始一个新的系列,sklearn库中各模型参数解释,本篇主要讲述最基础的LR模型模型参数详解 逻辑回归: sklearn.linear_model.LogisticRegression(penalty='l2', dual=False, ‍tol=0.0001, ,参数可选值为l1和l2,分别对应l1正则化和l2正则化,默认是l2正则化。 调整该参数的目的主要是为了防止过拟合,一般penalty选择l2正则化就够啦,但是如果选择l2正则化发现依然过拟合,即预测效果还是很差的时候,就可以考虑l1正则化。 penalty参数的选择会影响我们损失函数优化算法的选择,即参数solver的选择,如果是l2正则化,可选的优化算法 {‘newton-cg’, ‘lbfgs’, ‘liblinear’, ‘sag’}

    1K10编辑于 2022-11-04
  • 来自专栏用户10781703的专栏

    CTF之misc杂项解题技巧总结(2)——流量分析

    概括来讲在比赛中的流量分析有以下三个方向: 1、流量包修复 2、协议分析 3、数据提取 我们首先用一个合天的实验来对流量分析进行初探(wireshark之文件还原) 场景: 黑客通过ARP欺骗,使用 显示过滤器基础语法 Protocol String1 String2 ComparisonOperator Value Logical Operations other expression Protocol 可以使用大量位于OSI模型2至7层的协议。 的封包 tcp.dport == 25 //显示目的TCP端口号为25的封包 如果过滤器语法是正确的,表达式背景为绿色,否则为红色 前文中的wireshark文件还原就可以说是一个很基础的数据包流量分析 2、提取文件中的公钥 openssl rsa -in test.key -pubout -outtest_pub.key -in指定输入文件,-out指定提取生成公钥的文件名。

    9.3K11编辑于 2023-12-23
  • 来自专栏三木的博客

    QEMU 2: 参数解析

    使用gdb调试QEMU需要做一些准备工作: 1, 编译QEMU时需要在执行configure脚本时的参数中加入--enable-debug。 2, 从QEMU官方网站上下载一个精简的镜像——linux-0.2.img。linux-0.2.img只有8MB大小,启动后包含一些常用的shell命令,用于QEMU的测试。 $wget http://wiki.qemu.org/download/linux-0.2.img.bz2 $bzip2 -d . prev; 26 } Location; ###GMainLoop QEMU使用glib中的GMainLoop来实现IO多路复用,关于GMainLoop可以参考博客GMainLoop的实现原理和代码模型 找到选项和参数之后,QEMU便根据选项中的index枚举值来执行不同的分支。

    3K100发布于 2018-02-07
  • 来自专栏ClickHouse

    Impala 启动参数2

    dir2 and an unlimited amount in /dir3. If 0 or less, the HiveServer2 http server is not started.) type: int32 default: 28000-hs2_port (port on which HiveServer2 client requests are served.If 0 or less, the HiveServer2 server is not started.) path to the saml2 client. If this is not set, saml2_sp_callback_url will be used as the SP id.) type: string default: ""-saml2_

    1.4K51编辑于 2022-08-29
  • 来自专栏张俊红

    Sklearn参数详解—LR模型

    总第105篇 最近会开始一个新的系列,sklearn库中各模型参数解释,本篇主要讲述最基础的LR模型模型参数详解 逻辑回归: sklearn.linear_model.LogisticRegression(penalty='l2', dual=False, ‍tol=0.0001, ,参数可选值为l1和l2,分别对应l1正则化和l2正则化,默认是l2正则化。 调整该参数的目的主要是为了防止过拟合,一般penalty选择l2正则化就够啦,但是如果选择l2正则化发现依然过拟合,即预测效果还是很差的时候,就可以考虑l1正则化。 penalty参数的选择会影响我们损失函数优化算法的选择,即参数solver的选择,如果是l2正则化,可选的优化算法 {‘newton-cg’, ‘lbfgs’, ‘liblinear’, ‘sag’}

    7.8K60发布于 2018-06-11
  • 来自专栏深度学习自然语言处理

    GLoRA—高效微调模型参数

    在GPT-2模型家族上与prompt learning、adapters等相比,实现了SOTA性能。 根据之前的工作,本文评估了shot为1、2、4、8和16下的结果。 它们之间的区别仅在于搜索空间中的LoRA维度,该维度在最大模型中为8和4,在中间模型中为4和2,在最小模型中为2。本文方法中增加的参数灵活性允许在最终模型中进行用户定义的可训练参数计数。 将最先进的参数有效迁移学习提高了2.9%,即使是最小的模型也大大优于所有现有方法。 1、2、4、8和16的shot结果如下图所示。GLoRA在大多数few-shot learning数据集中表现出卓越的功效,在参数计数相似的情况下,其性能始终大大优于现有方法。

    85710编辑于 2023-08-22
  • 来自专栏机器之心

    迄今最大模型?OpenAI发布参数量高达15亿的通用语言模型GPT-2

    机器之心报道 机器之心编辑部 几个月前谷歌推出的语言模型 BERT 引发了业内的广泛关注,其 3 亿参数量刷新 11 项纪录的成绩让人不禁赞叹。 昨天,OpenAI 推出了一种更为强大的算法,这一次模型达到了 15 亿参数。 GPT-2 是基于 transformer 的大型语言模型,包含 15 亿参数、在一个 800 万网页数据集上训练而成。 GPT-2 是对 GPT 模型的直接扩展,在超出 10 倍的数据量上进行训练,参数量也多出了 10 倍。 我们最大的模型 GPT-2 是一个包含 15 亿参数的 Transformer,在 zero-shot 设定下,该模型在 8 个测试语言建模数据集中的 7 个数据集上取得了 SOTA 结果,但仍旧欠拟合

    97420发布于 2019-03-06
  • 来自专栏iSharkFly

    Mockito 2 参数匹配器

    Mockito 通过使用 equals() 这种自然的 Java 样式来校验参数值。有时候,当需要有其他一些灵活性的时候,你可能会要求使用参数匹配(argument matchers)。 更多有关 自定义参数匹配器(custom argument matchers)的使用,请参考 ArgumentMatcher 类的 API 文档。 在使用复杂参数匹配器的时候需要谨慎。 尝试给一个干净并且简单的测试的时候,尽量选择自然的参数匹配使用的是  equals() 对比相对偶然使用  anyX() 来说。 ArgumentCaptor 是有关参数匹配器的是特殊实现,能够为后面的对比(assertions)捕获参数变量。 参数匹配器的写法 如果你现在正在使用参数匹配器,所有参数(all arguments)都必须由 matches 提供。 下面的示例代码显示校验,但是一些将会应用到打标中。

    1.4K30发布于 2019-09-23
  • 来自专栏机器之心

    微软教小模型推理进阶版:Orca 2性能媲美10倍参数模型,已开源

    之前微软研究院推出了 Orca,它是拥有 130 亿参数的语言模型,通过模仿更强大 LLM 的逐步推理过程,展现了强大的推理能力。 Orca 2 有两个规模(70 亿和 130 亿参数),均通过在定制高质量合成数据上对相应的 LLaMA 2 基础模型进行微调而创建。 Orca 2 模型的表现不逊于或超越包括 5-10 倍更大的模型在内的所有其他模型。这里所有模型都使用相同尺寸的 LLaMA 2 基础模型。 通过比较 Orca 2 与其它模型,研究者有以下发现: 超越相同规模的模型。Orca-2-13B 在 zero-shot 推理任务上显著优于相同规模的模型。 值得注意的是,这三个模型 Orca-2-13B、LLaMA-2-Chat-13B 和 WizardLM-13B 都基于相同的基础模型,这也凸显了 Orca 2 采用的训练过程的有效性。

    54610编辑于 2023-12-05
  • 来自专栏机器人课程与技术

    ROS 2参数-parameters-

    在ROS 2中,每个节点都维护自己的参数。 所有参数都是可以动态重新配置的,并且是基于ROS 2服务构建的。 2. 参数param有哪些命令功能: ros2 param -h ? 参数命令实践 如之前一样,先开启: ros2 run turtlesim turtlesim_node ros2 run turtlesim turtle_teleop_key 3.1 参数列表 列出每个节点的参数: ros2 param list ? 要确定参数类型,可以使用ros2 param get。 3.4 参数转存 使用以下命令将节点的所有当前参数值“转储”到文件中保存以供以后使用: ros2 param dump <node_name> 要保存/turtlesim参数的当前配置,请输入以下命令:

    1.8K31发布于 2019-12-19
  • 来自专栏iSharkFly

    Mockito 2 参数匹配器

    Mockito 通过使用 equals() 这种自然的 Java 样式来校验参数值。有时候,当需要有其他一些灵活性的时候,你可能会要求使用参数匹配(argument matchers)。 更多有关 自定义参数匹配器(custom argument matchers)的使用,请参考 ArgumentMatcher 类的 API 文档。 在使用复杂参数匹配器的时候需要谨慎。 尝试给一个干净并且简单的测试的时候,尽量选择自然的参数匹配使用的是  equals() 对比相对偶然使用  anyX() 来说。 ArgumentCaptor 是有关参数匹配器的是特殊实现,能够为后面的对比(assertions)捕获参数变量。 参数匹配器的写法 如果你现在正在使用参数匹配器,所有参数(all arguments)都必须由 matches 提供。 下面的示例代码显示校验,但是一些将会应用到打标中。

    1K00发布于 2019-09-21
  • 来自专栏我的技术

    进阶2:JVM 启动参数

    jvm启动参数 JVM(Java虚拟机)的启动参数是在启动JVM时可以设置的一些命令行参数。这些参数用于指定JVM的运行环境、内存分配、垃圾回收器以及其他选项。 以 - 开头为标准参数,所有的 JVM 都要实现这些参数,并且向后兼容,如 -server。 2. -D 设置系统属性,如 -Dfile.encoding=UTF-8。 3. 注意事项 (1)需要设置的是JVM参数而不是program参数; (2)使用此参数参数优先级最高,会覆盖项目中配置的此项; 运行模式 ​ 编辑切换为居中 添加图片注释,不超过 140 字(可选) jvm 官方建议设置为 -Xmx 的 1/2 ~ 1/4。 -XX:MaxPermSize=size: 这是 JDK1.7 之前使用的。Java8 默认允许的 Meta 空间无限大,此参数无效。 答案就是:java -x 2.以前工作时也碰到过课程视频中所说的,就是我们一个服务命名没有什么用户量,但是总是不断的oom。我们查看GC日志后没有明显的问题,这时候我就就需要看下启动参数了。

    1.3K20编辑于 2023-06-28
  • 来自专栏AI技术体系搭建过程

    如何用2B参数模型VoxCPM2干翻企业语音系统商业巨头?

    +RALM分工协作参数规模通常>5B2B输出采样率多为24kHz48kHz(内置超分)推理RTF0.3~0.80.17(约6倍实时速度)四、三大落地模式,对应三种企业需求"因材施教,各得其所。" ——朱熹洞见一:模型参数量不是能力的天花板,架构才是VoxCPM22B参数干到商业级水准,核心不是数据量堆砌,而是架构分工的精准性。 给架构师的启示:在AI系统选型时,别被参数规模迷惑。问清楚:这个模型的任务分工是否合理?是否有意义地分离了不同复杂度的子任务? VoxCPM2的"音色设计模式"恰好是这个范式在语音领域的完美体现——用一句话描述音色,模型直接生成,无需中间表示。 VoxCPM2这样的模型告诉我们:2B参数、一张消费级显卡、Apache2.0协议,足够支撑一个中型团队的全部语音业务需求。不要再等商业方案帮你定义语音能力的边界了。

    53721编辑于 2026-04-09
  • 来自专栏机器之心

    3.6万亿token、3400亿参数,谷歌大模型PaLM 2细节遭曝光

    机器之心报道 编辑:杜伟、陈萍 谷歌内部文件又泄露了,这次是谷歌新一代大模型 PaLM 2 的训练细节:训练数据量是前代的近 5 倍、参数量是前代的三分之二左右。 这一点也在内部文件中得到了验证,PaLM 2 的训练参数量为 3400 亿,远小于 PaLM 的 5400 亿。 PaLM 2 的训练 token 和参数量与其他家的 LLM 相比如何呢? 网友评论 在官宣 PaLM 2 之初,就有网友根据 Chinchilla 定律预测其参数量,ta 预测 PaLM 2 模型家族的参数结果为 80B / 90B / 100B 不等,和这次爆料的 340B 还有人对 PaLM 2 的训练成本进行了一波预测,根据历代大模型的发展来看,这位网友表示,打造 PaLM 2 需要耗资 1 亿美元。 PaLM 2 参数都泄密了,可以试着推测 Bard 了,这位网友表示: 随着 PaLM 2 token 数的泄露,网友不禁疑问,在 AGI 到来之前,多少 token 才能迎来一次大转折?

    49920编辑于 2023-05-22
领券