首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏SnailTyan

    Caffe模型对比

    Caffe模型训练完成后,在实际生产环境中部署时需要对Caffe模型使用的显存(使用CPU时是内存)及模型分类的时间进行评估,下面是对比结果。测试使用的GPU为NVIDIA TESLA M40。

    1.3K70发布于 2017-12-29
  • 来自专栏深度应用

    ·主流声学模型对比

    主流声学模型对比 目录 概述 基础概念 语音帧 语音识别系统 主流声学建模技术 HMM DNN-HMM FFDNN CNN RNN及LSTM CTC 其他建模技术 语言建模技术 语音唤醒技术 关于未来 也正是因为如此,语音识别的模型也层出不穷,其中语言模型包括了N-gram、RNNLM等,在声学模型里面又涵盖了HMM、DNN、RNN等模型... 简单来说,声学模型的任务就是描述语音的物理变化规律,而语言模型则表达了自然语言包含的语言学知识。 识别的公式如图4所示,可见声学模型主要描述发音模型下特征的似然概率;语言模型主要描述词间的连接概率;发音词典主要是完成词和音之间的转换,其中声学模型建模单元一般选择三音素模型,以“搜狗语音为例”, sil-s 主流声学建模技术 近年来,随着深度学习的兴起,使用了接近30年的语音识别声学模型HMM(隐马尔科夫模型)逐渐被DNN(泛指深度神经网络)所替代,模型精度也有了突飞猛进的变化,整体来看声学建模技术从建模单元

    3.8K22发布于 2019-06-27
  • 模型速度对比分析

    模型速度对比分析 Qwen3-30B-A3B-AWQ采用30B参数量+AWQ量化(4bit),而Qwen3-14B-FP8为14B参数+FP8(8bit)精度。 理论速度差异主要取决于以下因素: 参数量级:30B模型计算复杂度更高,但AWQ量化可大幅降低显存占用 量化影响:FP8保持较高计算精度,适合硬件加速;AWQ牺牲部分精度换取更高压缩率 硬件适配:NVIDIA H100等新硬件对FP8有原生优化 实际性能测试案例 以下通过PyTorch基准测试对比两者在文本生成任务中的表现: from transformers import AutoModelForCausalLM 执行测试 fp8_time, _ = benchmark(fp8_model, prompt) awq_time, _ = benchmark(awq_model, prompt) print(f"FP8模型耗时 : {fp8_time:.2f}s | AWQ模型耗时: {awq_time:.2f}s") 典型测试结果(RTX 4090) 指标 Qwen3-14B-FP8 Qwen3-30B-A3B-AWQ 首token

    33010编辑于 2025-12-17
  • 来自专栏自然语言处理

    【LLM系列之底座模型对比】LLaMA、Palm、GLM、BLOOM、GPT模型结构对比

    用于 MLP 中间激活,因为与标准 ReLU、GELU 或 Swish 激活相比,《GLU Variants Improve Transformer》论文里提到:SwiGLU 已被证明可以显著提高模型效果 消融实验显示在 8B 参数量下模型效果下降很小,但在 62B 参数量下没有模型效果下降的现象。 Multi-Query Attention:每个头共享键/值的映射,即“key”和“value”被投影到 [1, h],但“query”仍被投影到形状 [k, h],这种操作对模型质量和训练速度没有影响

    1.6K41编辑于 2023-08-25
  • 来自专栏码客

    Stable Diffusion模型对比及使用

    Checkpoint:通过 Dreambooth 训练方式得到的大模型, 特点是出图效果好,但由于训练的是一个完整的新模型,所以训练速度普遍较慢,生成模型文件较大,一般几个 G,文件格式为 safetensors LoRA:一种轻量化的模型微调训练方法,是在原有大模型的基础上,对该模型进行微调,用于输出固定特征的人或事物。 特点是对于特定风格特征的出图效果好,训练速度快,模型文件小,一般几十到一百多 MB,需要搭配大模型使用。 特点是对于特定风格特征的出图效果好,模型文件非常小,一般几十 K,但是训练速度较慢,需要搭配大模型使用。 Hypernetwork:类似 LoRA,但模型效果不如 LoRA,需要搭配大模型使用。 模型对比 模型名称 安装目录 训练方法 常见大小 使用方法 特点 Checkpoint \models\Stable Diffusion Dreambooth 几GB WebUI顶部设置栏直接切换 最重要的主模型

    98810编辑于 2024-05-22
  • 来自专栏大数据成神之路

    Pulsar与Kafka消费模型对比

    为了同时兼容这两种消费模型,pulsar 做了一层消费层的抽象,统一了 Queue 和 Stream 这两种消费模型,具体如下图所示: ? 其中,Exclusive 和 Failover 属于 Stream 的消费模型,Share 属于 Queue 的消费模型。 在写此文章时,pulsar 最新版本为 2.3.1,Key_Shared 属于pulsar 新增加的一种订阅模型,在之后的文章中,我们会单独对 Key_shared 订阅模型做单独的分享,这里不在赘述。 对 Stream 支持的对比 由于 kafka 不支持 Queue 类型的消费模型,所以 Share 这种形式在这里不做对比。 下面,和大家一起讨论以下在 Stream 下 pulsar 与 kafka 的消费模型

    3.1K30发布于 2019-06-20
  • 来自专栏Jackie技术随笔

    IO复用——几种IO模型对比

    I/O复用——几种I/O模型对比 之前在服务器进程终止中讨论的情形,TCP客户端同时要处理两个输入,一是标准输入,二是TCP套接口。 阻塞I/O模型 缺省时,所有套接口都是阻塞的。《Unix网络编程》一书中,前五章的所有例子都使用阻塞I/O模型。 [非阻塞I/O模型] I/O复用模型 在I/O复用模型下,我们不再阻塞于真正的I/O系统调用recvfrom,而是在select和poll这两个系统调用之一阻塞。 [异步I/O模型] 五种I/O模型的比较 除了真正的异步I/O模型以外,其他几种模型,最后一阶段的处理都是相同的——阻塞于recvfrom调用,将数据从内核拷贝到应用缓冲区。 [五个I/O模型的比较]

    1.7K71发布于 2018-12-02
  • 来自专栏机器学习入门

    【AI大模型】BERT GPT ELMo模型对比

    单/双向语言模型: 三者之中, 只有GPT采用单向语言模型, 而ELMo和BERT都采用双向语言模型. ELMo虽然被认为采用了双向语言模型, 但实际上是左右两个单向语言模型分别提取特征, 然后进行特征拼接, 这种融合特征的能力比BERT一体化的融合特征方式弱. BERT: * 优点: * BERT使用了双向Transformer提取特征, 使得模型能力大幅提升. * 添加了两个预训练任务, MLM + NSP的多任务方式进行模型预训练. * 缺点: * 模型过于庞大 三者所采用的语言模型单/双向不同. BERT采用的是最彻底的双向语言模型, 可以同时关注context before和context after. ELMo表面上被认为是双向语言模型, 但实际上是左右两个单向LSTM模型分别提取特征, 在进行简单的拼接融合.

    52310编辑于 2025-01-17
  • 来自专栏.NET企业级解决方案应用与咨询

    C#开发BIMFACE系列30 服务端API之模型对比1:发起模型对比

    为了便于用户了解模型在修改前后发生的变化,BIMFACE提供了模型在线对比功能,可以利用在线的模型对比接口,通过简单的四个步骤实现模型在线对比模型对比可以对两个文件/模型进行差异性分析,确定两个文件/模型之间构件的几何和属性差异,包括增加的构件、删除的构件和修改的构件。 模型对应可以用于进行文件/模型的版本对比。 前置条件 您需要将修改前和修改后的模型上传到云端并转换成功以后才能发起模型对比; 目前仅支持.rvt单文件的模型对比。 基本步骤 通过服务端API发起模型对比对比前后模型文件的fileId); 等待云端对比任务执行; 对比完成后,在网页端通过调用JavaScript API实现差异模型的显示; 除了显示差异模型,还需要调用服务端 当模型对比完成后,BIMFACE能通知对比结果。 在下一篇《C#开发BIMFACE系列31 服务端API之模型对比2:获取模型对比状态》中详细介绍如何获取模型对比状态。

    59410发布于 2020-03-18
  • 来自专栏.NET企业级解决方案应用与咨询

    C#开发BIMFACE系列31 服务端API之模型对比2:获取模型对比状态

    系列目录 【已更新最新开发文章,点击查看详细】   在上一篇《C#开发BIMFACE系列30 服务端API之模型对比1:发起模型对比》中发起了2个模型对比,由于模型对比是在BIMFACE云端进行的 当模型对比完成后,BIMFACE通过回调机制通知对比结果。 特别说明:BIMFACE可以通过回调机制将模型/文件转换、对比等耗时操作结果通知开发者。 本文介绍通过调用接口的方式来查询模型对比状态的结果。模型/文件对比状态有四种:prepare(待对比)、processing(对比中)、success(对比成功)、failed(对比失败)。 发起模型对比成功后状态为 processing。经过一段时间转对比后,可能对比成功,也有可能对比失败。 compareId">【必填】模型对比ID</param> 6 /// <returns></returns> 7 public virtual ModelCompareResponse GetCompareStatus

    68710发布于 2020-03-18
  • 大语言模型集成策略对比研究

    这是集成方法的关键问题有效利用多样性已被证明能够提升包括大语言模型(LLM)在内的各种机器学习模型的性能。然而,如何最有效地使用多样性仍然是一个挑战。 本研究比较了两种用于回答二元问题的LLM多样性方法:模型多样性:依赖多个模型回答同一问题问题解释多样性:依赖同一模型以不同方式表述的同一问题在这两种情况下,都采用多数投票作为集成共识启发式方法来确定最终答案 在boolq、strategyqa和pubmedqa数据集上的实验表明,与模型多样性相比,问题解释多样性始终能够带来更好的集成准确率。 此外,对GPT和LLaMa的分析显示,模型多样性通常产生的结果介于最佳和最差集成成员之间,而没有明显的改进。

    13500编辑于 2025-09-03
  • 来自专栏kinnylee钻研技术

    五种IO模型介绍和对比

    前言 unix提供的IO模型有几种,分别有哪些? 各种IO模型的特点是什么?他们有什么区别? 阻塞,非阻塞,同步,异步的区别? epoll为什么高效? 概述 普通输入操作包含的步骤 等待数据准备好 从内核向进程复制数据 网络数据输入包含的步骤 等待数据从网络送达,到达后被复制到内核缓冲区 把数据从内核缓冲区复制到应用程序缓冲区 IO模型介绍 阻塞式IO IO 阻塞式IO式最流行的IO模型 ? 异步IO 异步IO依赖信号处理程序来进行通知 不过异步IO与前面IO模型不同的是:前面的都是数据准备阶段的阻塞与非阻塞,异步IO模型通知的是IO操作已经完成,而不是数据准备完成 异步IO才是真正的非阻塞 各种IO模型对比 前面四种IO模型的主要区别在第一阶段,他们第二阶段是一样的:数据从内核缓冲区复制到调用者缓冲区期间都被阻塞住!

    3.4K50发布于 2020-10-15
  • 来自专栏.NET企业级解决方案应用与咨询

    C#开发BIMFACE系列32 服务端API之模型对比3:批量获取模型对比状态

    系列目录 【已更新最新开发文章,点击查看详细】   在《C#开发BIMFACE系列31 服务端API之模型对比2:获取模型对比状态》中介绍了根据对比ID,获取一笔记录的对比状态。 由于模型对比是在BIMFACE云端进行的,通常需要5~10分钟,在等待对比的过程中还可以发起更多的模型对比,最后通过接口一次性批量获取模型对比状态 。 其中 ModelCompareQueryRequest 类如下 1 ///

    2 /// 批量获取模型对比状态的请求参数类 3 /// 4 public CompareId { get; set; } 17 18 /// 19 /// 【非必填项】模型对比的类型 rvt(或者igms…​) 20 /// < () 78 { 79 return this.SerializeToJson(); 80 } C#实现方法: 1 /// 2 /// 批量获取模型对比状态

    58220发布于 2020-03-18
  • 来自专栏.NET企业级解决方案应用与咨询

    C#开发BIMFACE系列33 服务端API之模型对比4:获取模型对比结果

    系列目录 【已更新最新开发文章,点击查看详细】   模型对比可以对两个文件/模型进行差异性分析,确定两个文件/模型之间构件的几何和属性差异,包括增加的构件、删除的构件和修改的构件。 模型对应可以用于进行文件/模型的版本对比。 几何对比 几何数据的对比的粒度为构件级,即只要构件的某一部分几何数据或材质发生改变,就认为整个构件发生变化。 获取模型对比结果 您可以调用服务端“获取模型对比结果”API,其返回的结果是一个列表,列表中详细列出了新增、删除、修改构件的ID和名称,并按照专业、类型进行了分组; 2. 如何显示模型对比结果的几何图形部分 完整显示文件B; 在此基础上显示几何差异; 隔离未变更的构件(如:半透明未变更的构件); 对新增、删除、修改前后的构件进行着色。 下面介绍BIMFACE提供的服务端API来获取模型对比的所有结果。

    83920发布于 2020-03-18
  • 来自专栏DeepHub IMBA

    生成模型VAE、GAN和基于流的模型详细对比

    尽管GANs很有趣,也很有前途,但它只是生成模型家族的一部分,是从完全不同的角度解决传统AI问题,在本文中我们将对比常见的三种生成模型。 生成算法 当我们想到机器学习时,首先想到的可能是鉴别算法。 GANs采用监督学习方法,使用两个子模型:生成新示例的生成器模型和试图将示例分类为真实或假(生成的)的鉴别器模型。 生成器:用于从问题域生成新的似是而非例子的模型。 基于流的模型 基于流的生成模型是精确的对数似然模型,有易处理的采样和潜在变量推理。基于流的模型将一堆可逆变换应用于来自先验的样本,以便可以计算观察的精确对数似然。 基于流的模型有两大类:带有标准化流模型和带有试图增强基本模型性能的自回归流的模型。 标准化流模型 对于许多机器学习问题来说,能够进行良好的密度估计是必不可少的。 虽然GANs和基于流程的模型通常生成比VAE更好或更接近真实的图像,但后者比基于流程的模型更具有更快时间和更好的参数效率,下面就是三个模型对比总结: 可以看到GAN因为并行所以它的效率很高,但它并不可逆

    1.3K20编辑于 2022-11-11
  • 来自专栏.NET企业级解决方案应用与咨询

    C#开发BIMFACE系列34 服务端API之模型对比5:获取模型构件对比差异

    "unit" : "unit" 57 } ] 58 }, 59 "message" : "" 60 } C#实现方法: 1 ///

    2 /// 获取模型构件对比差异 3 /// 4 /// <param name="accessToken">【必填】令牌</param> 5 /// <param name="compareId">【必填】对比 return response; 43 } 44 catch (Exception ex) 45 { 46 throw new Exception("[获取模型构件对比差异 返回类型 ModelCompareChangeResponse 类如下: 1 /// 2 /// 获取模型构件对比差异的响应类 3 /// 4 ModelCompareChangeResponse : GeneralResponse<ModelCompareChange> 5 { 6 7 } 8 9 /// 10 /// 模型构件对比差异类

    42610发布于 2020-03-18
  • 来自专栏图灵技术域

    常用数据模型对比分析

    第一章 数据模型概述 数据模型(Data Model)是数据特征的抽象。数据(Data)是描述事物的符号记录,模型(Model)是现实世界的抽象。 第二章 数据模型分析 数据发展过程中产生过三种基本的数据模型,它们是层次模型、网状模型和关系模型。这三种模型是按其数据结构而命名的。前两种采用格式化的结构。 其中层次模型的基本结构是树形结构;网状模型的基本结构是一个不加任何限制条件的无向图。关系模型为非格式化的结构,用单一的二维表的结构表示实体及实体之间的联系。 其中应用最广泛的是关系模型,在逻辑数据类型中最常用的是层次模型、网状模型、关系模型。[1] 本章将从数据结构、数据操作、数据完整性约束、查询效率等方对常用的数据模型进行对比分析。 结束语 随着互联网、大数据及人工智能的发展,作为信息系统核心和基础的数据库技术得到越来越广泛的应用,数据模型是数据库的基础,对数据模型对比分析能够加深我们对数据库的认识,使我们将技术服务于应用。

    2.7K20发布于 2021-05-21
  • 来自专栏AIGC 先锋科技

    LORACLR:用于定制扩散模型对比适应 !

    作者的方法引入了一种新颖的对比目标,该目标能够对齐每个模型的权重空间,避免相互干扰,并通过确保每个模型在其联合组成中分别表示其各自的概念来保持保真度。 作者的方法LoRACLR使用对比目标对专门化的LoRA模型的权重空间进行对齐,从而实现最少干扰下的多概念一致性组合。 利用对比学习,作者的方法对齐了各个模型的权重空间,确保每个概念在联合组成中既保持高保真度又具有兼容性。LoRACLR的概述如图2所示。 3.1. 3.2.LoRACLR LoRACLR 融合过程的核心是一个对比损失目标,旨在确保统一模型内独立训练的 LoRA 模型之间的兼容性,作者的对比目标背后的思想如下:由同一 LoRA 模型生成的正配对应吸引 利用[24]中识别出的12个主体,作者首先通过作者的新颖对比目标将它们统一到一个模型中,且这一过程适用于所有实验。

    40700编辑于 2025-02-20
  • 来自专栏玉龙小栈

    HCIE|OSI参考模型及TCPIP对比介绍

    OSI参考模型 OSI模型是ISO组织提出来的一种网络参考模型,在数据链路层所使用到的是ISO/IEC766... ,网络层使用到的协议是CLNP,X.233等,由于现在现网中都是以太网架构,使用的是IP协议,因此OSI模型在以太网中没有大规模应用(除ISIS协议),目前以太网基于TCP/IP协议模型开发 分层介绍 TCP/IP模型 TCP/IP模型是由IETF修改和完善的,相较于OSI参考模型,将OSI的上三层合并为应用层,将下两层合并为网络接口层。 层次划分有所差异,但这不是主要差别,主要是两个模型使用的协议完全不同。 应用层 传输层 网络层 网络接口层 其中包含了数据链路层及物理层。 TCP和OSI的对比 ? ?

    82610发布于 2021-02-24
  • 来自专栏数说工作室

    主流CTR预估模型的演化及对比

    常用模型 1. LR LR模型是广义线性模型,从其函数形式来看,LR模型可以看做是一个没有隐层的神经网络模型(感知机模型)。 ? ? 思路很简单,特征工程分为两部分,一部分特征用于训练一个GBDT模型,把GBDT模型每颗树的叶子节点编号作为新的特征,加入到原始特征集中,再用LR模型训练最终的模型。 ? 最终模型的预测值为所有分片对应的子模型的预测值的期望。 PNN和FNN与其他已有的深度学习模型类似,都很难有效地提取出低阶特征组合。WDL模型混合了宽度模型与深度模型,但是宽度模型的输入依旧依赖于特征工程。 总结 主流的CTR预估模型已经从传统的宽度模型向深度模型转变,与之相应的人工特征工程的工作量也逐渐减少。

    1.3K40发布于 2019-07-17
领券