首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏后台技术汇

    模型应用之(4):Langchain架构与模型接入

    作为一个语言模型集成框架,LangChain 的用例与一般语言模型的用例有很大的重叠。 重叠范围包括文档分析和总结摘要, 代码分析和聊天机器人。 Langchain架构 LangChain工具 组件:模型包装器、聊天模型包装器、数据增强工具和接口链: 提供了标准接口,和数据平台和实际应用工具紧密集成 LangChain六模块 模块 核心作用 Agent作为高级模块,可调用其他所有模块功能 模型接入 接入示例 云服务和私有化模型优劣对比 维度 开发成本 算力成本 运维成本 数据安全 云厂商模型 较低,开箱即用 算力资源充足,模型性能好 &吞吐量较高 较低,提供云平台监控 安全性低 私有化模型 较高,自建模型网关、服务鉴权、可用性等 算力硬件投入成本高,模型性能较差低&吞吐量较低 较高,需要专业运维团队介入 安全性高,保密性强 小结: - 研发&测试环境:为了方便部署和测试,使用云服务 - 大客户生产环境:安全审核严格,大多数采用自建模型的方式 总结 LangChain 是什么?

    77410编辑于 2025-08-04
  • 来自专栏大模型成长之路

    模型学习 | MINIGPT-4原理】

    MINIGPT-4: ENHANCING VISION-LANGUAGE UNDERSTANDING WITH ADVANCED LARGE LANGUAGE MODELS在GPT4未开源的情况下,作者认为其表现优越是因为采用了最为先进的 LLM模型,因此,作者在BLIP2的基础上,将LLM模型替换为了Vicuna,同样也是通过一个线性映射层将图像表征映射为LLM的输入。 开源代码:https://minigpt-4.github.io/一、预训练方法预训练方法几乎和BLIP2模型一致,可以参考:【模型学习 | BLIP2原理】-腾讯云开发者社区-腾讯云1.1 Q-Former ; MINI-GPT4表现比BLIP2要强上许多? ① MiniGPT-4 使用的是 Vicuna(基于 LLaMA 的开源 ChatGPT 对话模型),具有更强的自然语言表达和指令理解能力;而BLIP-2 使用的 LLM 主要是 Flan-T5 或 OPT

    75610编辑于 2025-07-02
  • 来自专栏算法一只狗

    实测一手Qwen版本o1推理模型QWQ

    说实话,这个模型被称为Qwen QWQ,我是有点惊讶的。QWQ是不我们日常使用的颜文字吗? 目前QWQ放出来的版本,参数量只有32B,这个模型在本地也能够运行,也就是人人都能够自己搭建一个o1水平的推理模型再来给他测试一下2024年的高考题看看效果怎么样:编号为1,2,3,4,5,6的六个小球 对于最令模型头痛的一道题目trawberry有几个r结果是正确的,确实推理能力上来之后,这种之前有问题的题目模型已经可以做好了~在当前的热潮中,通义团队坦言,虽然 QwQ 显示出了卓越的分析实力,但它依旧是一个用于科研的试验性模型 写在最后这次把国内的一些近期有名的推理模型做了一些简单的介绍和基础的评测,发现这些专门针对推理的模型应该都是沿用了OpenAI o1模型的那个技术。 这种技术包含了隐式化的COT生成和Post-training,确实能够有效提升模型的推理能力。相信不久之后这些推理模型将会在各个领域发挥更大的作用。

    64320编辑于 2024-12-07
  • 来自专栏算法一只狗

    LLama4 原生多模态模型

    Meta最新发布了原生多模态模型 Llama 4,一经亮相即登上LMSYS模型排行榜第二名,仅次于Google的Gemini-2.5-pro,分差仅为22分,实力可见一斑。 在模型规模方面,Llama 4系列的确非常庞大,尤其是Behemoth模型,远超业内主流,例如DeepSeek R1参数量仅为6710亿,只有Behemoth的约三分之一。 当前行业趋势多偏向小而高效的模型,Llama 4如此庞大的规模实属少见。 总结与展望Llama 4的发布,意味着Meta正式进入原生多模态模型竞争核心领域。 相比Gemini系列、GPT-4o、Claude 3、DeepSeek等主流模型,Llama 4以务实高效的技术路线,突出计算成本、推理效率与多模态能力的平衡。

    82800编辑于 2025-05-01
  • 来自专栏啄木鸟软件测试

    多模态模型技术原理与实战(4)

    多模态模型核心技术 1多模态的困难 困难 数据集标志困难 人工标注生成 COCO Visual Genome ... OpenAl的DALL-E2和GPT4 谷歌大脑的 lmaen和Stable Diffusion 百度的文心一言 文本生成图像 基于GAN的文本生成图像方法 AlignDRAW:第一个现代文本生成图像模型 图像解码器 把隐信息还原成图像 4语音多模态技术 文本生成语音 以前技术:拼接法和参数法 基于非深度学习的文本生成语音技术 隐马尔可夫模型 (HMM) 文本信息提取模块 声学特征提取模块 可调整的低秩适配(Adaptive Low-Rank Adaptation,AdaLoRA)技术和量化压缩远程注意力(Quantized Long-Range Attention,QLoRA)技术 8 GPT-4模型核心技术介绍 Transformer:编码器-解码器框架 编码器:衍生出了自编码模型,如BERT、RoBERT和ALBERT 解码器:衍生出了自回归模型,如GPT-1和GPT-2 整体衍生出:T5和GLM

    49610编辑于 2024-09-10
  • 来自专栏技术人生黄勇

    不要盲目再使用DeepSeek R1和QWQ这些推理模型做RAG了

    通过将专用检索器与强大的推理模型连接起来,我们可以同时获得“三全其美”的效果: 高相关性文档检索 推理丰富的文本生成 通过直接引用减少幻觉 我们开源了构建 RAG 的整个流程(地址在文末),并分享了一些来之不易的经验 最后,推理模型用精确的引文来解释其推理,将结论与来源联系起来。这建立了从问题到推理再到答案的明确联系,确保了严谨性和可访问性。 我们首先使用典型的 Nvidia L4 GPU 运行,但遇到了“最常见”的错误:CUDA 内存不足。 使用 vLLM,我们可以使用标准 Nvidia L4 GPU 运行模型,vllm 大约需要 24G DRAM GPU。 L4 也比 A100 便宜得多:在 GCP 上,Nvidia L4 每小时花费超过 0.7 美元,而 Nvidia A100 每小时至少花费 2.9 美元。

    70500编辑于 2025-03-11
  • 来自专栏科学最Top

    近期值得关注的4个时序模型研究

    前言 梳理了近期几篇时间序列模型研究文章(后台回复:“论文合集”获取),时间序列模型的研究正在迅速发展,并且在多个领域和应用中展现出巨大的潜力。 随着技术的不断进步,预计未来会有更多创新的方法和应用出现,但我感觉目前可以重点关注以下三方面: 基础模型的构建:研究者们正在尝试构建时间序列预测的基础模型,这些模型可以在不同的时间序列数据集上进行预训练 特定领域的应用:模型正在被应用于特定领域的时间序列预测,如金融、医疗、交通等,以解决特定问题并提供可解释的预测。 这一模型采用了一个创新的统一网络架构,结合了序列和变量注意力机制、动态线性算子,并作为一个统一模型进行训练。在38个跨领域的数据集上,UniTS展现了超越特定任务模型和基于自然语言的LLMs的性能。 4、Lag-Llama 论文标题:Lag-Llama: Towards Foundation Models for Probabilistic Time Series Forecasting 在过去的几年中

    1.7K10编辑于 2024-09-18
  • 来自专栏【腾讯云开发者】

    腾讯混元模型·4月产品动态

    作为腾讯全链路自研的模型,自2023年9月公开亮相以来,腾讯混元模型共经历了数十次迭代,支持内部超过400个业务和场景接入,并通过腾讯云面向企业和个人开发者全面开放(API个人权益与企业客户一致,已实名腾讯云账号提供累计

    59340编辑于 2024-04-28
  • 来自专栏自然语言处理(NLP)论文速递

    猛犸象模型!MAmmoTH:目前最好的开源、通用数学模型,现已超过GPT-4

    引言  大型语言模型 (LLM)的数学推理能力是评估模型能力的一项关键指标。 尽管目前很多大型语言模型(LLMs)在该领域取得了一定的进展,但与闭源的模型相比,开源模型的数学推理能力仍然有很大差距。   (LLM)的数学推理能力是评估模型能力的一项关键指标。 尽管该领域取得了一定的进展,但是开源模型和闭源模型之间仍然存在明显的差距。 目前一些比较流行的闭源LLM主要包括:GPT-4、PaLM-2、 Claude2,它们在主流的GSM8K、MATH数据集上面占据着了主导地位;而Llama、Falcon、OPT等开源模型在所有基准上都大幅落后

    1.7K20编辑于 2023-09-21
  • 来自专栏AI分享

    模型有关信息(2025年4月8日 - 4月14日)

    Meta发布Llama 4模型引发争议发布情况:4月13日,Meta平台公司推出了Llama语言模型新一代版本——Llama 4 Scout和Llama 4 Maverick。 专业评估机构LMArena把Llama 4 Maverick的某个版本评为当下性能最强的开源语言模型,但开发者亲自测试发现,通过不同方式访问时效果差异巨大,Meta高管也承认其表现“参差不齐”“质量不稳定 独特优势:Llama 4拥有超大的上下文窗口,一次能处理1000万个token,大约相当于800万个单词,相比OpenAI的GPT-4的上下文窗口优势明显。 嘀嗒出行公布模型应用于客服的进展应用成果:4月14日,嘀嗒出行公布其AI模型在客服领域的应用进展。基于模型的智能判责准确率已超过80%,智能工单生成效率提升50%,准确率达98%。 小鹏汽车训练物理模型何小鹏表态:4月14日,小鹏汽车创始人何小鹏在社交平台发帖称,小鹏坚持全栈自研,去年率先在自动驾驶领域引入强化学习、模型蒸馏的路线,并且训练了一个超大规模的物理世界模型,国内还没有第二家车企可以做到

    3.7K20编辑于 2025-04-15
  • 来自专栏大模型应用

    模型应用:庖丁解牛:QKV机制详解,模型的注意力之眼.4

    基础介绍 我们先从理论角度来解释QKV机制,QKV机制是注意力机制的核心,尤其在Transformer模型中,注意力机制源于人类感知世界的方式:在处理信息时,我们会选择性地关注一部分信息, 在机器学习中,注意力机制允许模型在处理序列数据时,对不同的部分赋予不同的权重,从而更有效地利用信息。1. 多头注意力机制实际中大模型使用多头注意力,让模型同时从多个角度关注信息:比如在分析"我去银行取钱"时:头1关注:"取"→"钱"(动作-对象关系)头2关注:"银行"→"取钱"(地点-活动关系)头3关注:" attention = SimpleSelfAttention(d_model=4, d_k=2, d_v=2) # 示例输入:3个词的序列,每个词用4维向量表示 # "猫" QKV机制赋予模型动态上下文感知能力,每个位置的输出都融合了全局相关信息,而非固定窗口内的局部特征,这使模型能有效处理代词指代、一词多义等复杂语言现象。

    87532编辑于 2026-02-01
  • 来自专栏架构进阶

    实测|Mac本地Claude Code,4热门模型(minimaxqwenkimiglm)对比

    3.3 启动Claude Code,关联4模型 完成上述步骤后,即可通过Ollama的launch命令快速启动Claude Code,并关联已拉取的4模型,具体操作如下: 1. 3.4 几个大模型的默认上下文长度 相信大家都已经了解过,上下文是模型能记住并处理的对话 / 文本长度,单位 token。 上述几种模型默认上下文长度: glm-4.7-flash(Ollama) 默认上下文:32768 (32K) tokens 最大支持:198K tokens(官方标称 200K,Ollama 限制 198K 四 核心实测:4模型全方位对比(相同案例,公平PK) 本次测试选取了4类高频场景,覆盖编码、办公、推理等日常使用场景,每个场景设置相同的任务指令,从响应速度、输出质量、容错率、易用性4个维度进行评分( 4.1 测试案例统一说明(4类场景,所有模型均测试相同任务) 为了保证测试的公平性,所有模型均测试以下4个相同案例,每个案例的任务指令完全一致,测试完成后,对比各模型的输出结果和操作体验: 案例1(基础编码

    50930编辑于 2026-05-06
  • 2026年4月 7款国产模型能力实测

    2026年4月7款国产模型推理能力实测:谁能发现网站付费墙的漏洞?一次真实的代码安全分析任务,7款国产模型同台竞技,最终只有1款完成了挑战。背景模型的代码能力评测很多,但跑分和实战是两回事。 我们想回答一个更实际的问题:给模型一个真实的代码安全分析任务,它能不能像安全工程师一样思考,从蛛丝马迹中推理出漏洞? 2个模型下载了错误的文件,4模型完全没下载成功。网站的真实漏洞是什么?在分析模型表现之前,先说清楚这个网站到底有什么问题。 结论这次测试揭示了当前国产模型在代码推理能力上的几个关键差异:推理链完整性是分水岭:能从HTML源码一路追踪到API接口再到CDN资源的模型(GLM-5.1),与在中间某个环节断裂的模型,产出质量天差地别 本文基于2026年4月23日的实测数据,测试环境为Trae企业版IDE模式。所有模型使用相同的提示词和工具集。

    25300编辑于 2026-04-23
  • 来自专栏NewBeeNLP

    LLM4Rec:当推荐系统遇到语言模型

    模型LLM在越来越多的领域开始崭露头角,前段时间我们整理了模型在推荐系统中的应用 survey,当时留了一些坑没填上,今天补上。 FT OR NOT FT 上文是从『Where』的角度对 LLM4RS 工作进行整理,下面从『How』的角度看,模型如何应用。 从模型训练和推理两个阶段出发,可以将现有工作分为四个象限 训练阶段是否需要微调? 推理阶段是否使用传统推荐模型? ;是否需要 ID-index 探索更适合语言模型的 ID 索引和建模策略 避免模型偏见: 问题:由于训练数据的不平衡等因素导致的模型输出存在某种偏好或倾向,进而引发一系列伦理和社会问题 Can ChatGPT A Fairness Evaluation Benchmark for Recommendation with Large Language Model 模型安全问题: GPT4 technical

    4.8K11编辑于 2024-01-17
  • GLM4模型微调入门实战(完整代码)

    GLM4是清华智谱团队最近开源的语言模型。 以GLM4作为基座模型,通过指令微调的方式做高精度文本分类,是学习LLM微调的入门任务。 显存要求相对较高,需要40GB左右。 在本文中,我们会使用 GLM4-9b-Chat 模型在 复旦中文新闻 数据集上做指令微调训练,同时使用SwanLab监控训练过程、评估模型效果。 模型指令微调(Instruction Tuning)是一种针对大型预训练语言模型的微调技术,其核心目的是增强模型理解和执行特定指令的能力,使模型能够根据用户提供的自然语言指令准确、恰当地生成相应的输出或执行相关任务 日将进行两场半决赛,由青海山川机床铸造厂队和青岛铸造机械厂队分别与武汉肉联厂队和上海隆机器厂队交锋。本届比赛将于6日结束。 (完) Category: Sports, Politics Output:[OUTPUT]Sports """ 我们的训练任务,便是希望微调后的模型能够根据Text和Category组成的提示词,预测出正确的

    2.6K10编辑于 2024-06-20
  • 来自专栏机器之心

    最接近GPT-4的国产模型诞生了

    综合能力全面跃升 国产基座模型比肩 GPT-4 一直以来,AI 领域内的研究者和从业者都以「GPT-4」作为模型技术的标杆。 而 GLM-4 的诞生,意味着国产模型的水平真正做到了「比肩 GPT-4」。 短短几个月,GLM-4 即可实现多项模型能力的飞跃,与智谱 AI 长期以来所坚持的「All in 模型」路线密不可分。 在 2023 年的模型浪潮之中,智谱 AI GLM 系列模型保持每 3-4 个月升级一次的节奏,同时逐步具备了多模态理解、代码解释、网络搜索增强等新功能。 从全行业的角度来说,GLM-4-All Tools 的意义或许更为突出。基于比肩 GPT-4 的基座模型能力,这一功能的上线将为应用、行业模型和商业化落地案例开辟出更加广阔的实践空间。

    66111编辑于 2024-01-17
  • 来自专栏创作是最好的自我投资

    通用模型VS垂直模型

    在人工智能这个充满无限可能的领域内,通用模型和垂直模型各有千秋。就我个人而言,在二者之间的选择上,并不存在偏向某一方的倾向。我觉得应当依据实际应用场景的具体需求,来挑选最为契合的模型。 通用模型通用模型,乃是旨在应对多种任务与数据类型的庞然物级人工智能模型。 在知识覆盖的广度方面,通用模型无疑具有明显的优势。当我们对于当下所需模型所涉及的精确专业领域的界限感到模糊不清时,选择通用模型无疑是一种明智之举。垂直模型接下来谈谈垂直模型。 然而,由于垂直模型的训练内容聚焦于当前行业,其涉猎的范围更集中,数据针对性更强,所以在提供专业咨询时往往更加精准、细致,这也正是垂直模型的独特价值所在。 因此,对于通用模型或者垂直模型,更倾向于哪一方不取决于个人想法,而是取决于用户需要。

    79501编辑于 2024-12-30
  • 来自专栏小洁叫你mysql

    【AI模型】训练Al模型

    模型超越AI 目前所指的模型,是“大规模深度学习模型”的简称,指具有大量参数和复杂结构的机器学习模型,可以处理大规模的数据和复杂的问题,多应用于自然语言处理、计算机视觉、语音识别等领域。 本文将探讨模型的概念、训练技术和应用领域,以及与模型相关的挑战和未来发展方向。 }") 什么是模型模型是指具有庞大参数数量的机器学习模型。传统的机器学习模型通常只有几百或几千个参数,而模型则可能拥有数亿或数十亿个参数。 训练模型的挑战 训练模型需要应对一系列挑战,包括: 以下是与模型相关的一些代码示例: 计算资源需求: import tensorflow as tf # 指定使用GPU进行训练 with tf.device

    1.6K30编辑于 2023-10-10
  • DeepSeek V4 领衔实测:国产 AI 模型工程代码能力测评!

    随着 vibe coding 相关技术日趋成熟,模型辅助编程已经逐渐成为主流的开发方式。各大模型也在持续发力工程级代码能力,竞争愈发激烈。 在这个背景下,一个自然而然的问题出现了:对于 DolphinDB 这类深耕专业细分领域、自带编程语言的产品,模型的辅助效果到底如何?不同模型之间的差距有多大? 于是,我们跑了一轮系统性评测,覆盖当前主流的国产模型,并引入 gpt-5.4 作为能力基准线,看看国产模型的真实水位在哪里!测试框架和常见的问答式评测不同,这次我们刻意把测试环境做得更接近真实开发。 在这个层面,deepseek-v4-pro 和 deepseek-v4-flash 在国产模型里表现最佳,为第一梯队,其余模型都有一定差距。 后续,我们也会持续跟进的模型的迭代,并增加更多测试样本。希望了解更多测试细节?点击国产模型在 DolphinDB 代码生成任务上的测评 - DolphinDB Blogs,进行跳转。

    64920编辑于 2026-05-06
  • 来自专栏量子位

    国产GPTs来了,基于智谱第4模型模型性能均达GPT-4九成以上

    衡宇 发自 凹非寺 量子位 | 公众号 QbitAI 国产模型玩家智谱AI,交出最新成绩单—— 发布全自研第四代基座模型GLM-4,且所有更新迭代的能力全量上线。 作为国内唯一一个产品线全对标OpenAI的模型公司,智谱年前攒了波的: 按官方说法,GLM-4性能相比GLM-3提升60%,逼近GPT-4(11月6日最新版本效果)。 不过张鹏也表示,GLM-4在中文推理方面的能力,还有待进一步提升。 其次,在模型的“内存”能力方面,GLM-4系列支持128k上下文窗口长度,单次提示词可处理文本300页,比前作有所提升。 对GLM-4的发布,综合下来给人一种这样的感觉: 去年10月底第3代基座模型,该公司在模型产品线上和OpenAI逐一对齐;第4代是在拉齐模型能力和OpenAI GPT-4的能力水平线。 参数不强调了,外界的目光自然更加紧盯这一代基座模型的性能——这确实是智谱这回想要强调的东西。 接下来将主要发力三个方向 “模型的技术,不是说把原来系统里的小模型扔掉,换上模型的接口就行了。

    43110编辑于 2024-01-17
领券