首页
学习
活动
专区
圈层
工具
发布
首页标签第四期热点征文-大模型技术

#第四期热点征文-大模型技术

大模型应用:上下文理解极限:Context Window 与注意力跨度的数学边界.57

未闻花名

在大模型的世界里,理解其处理长文本的能力,不能只看一个数字。我们常听到“支持128K上下文”这样的宣传,但真正决定模型能否有效利用这些信息的,远不止窗口长度本身...

6421

大模型应用:大模型瘦身:量化、蒸馏、剪枝的基础原理与应用场景深度解析.56

未闻花名

如今大模型越来越火,不管是企业做业务落地,还是我们作为个人开发者上手体验,都绕不开一个核心问题:大模型虽强,但太笨重,动辄几十上百GB显存占用,普通硬件跑不动,...

9841

大模型应用:高精度量化感知训练(QAT)与低成本后训练量化(PTQ)方案优选.55

未闻花名

在我们反复探讨的大模型落地的过程中,高性能与低成本的矛盾始终存在。想用好一个高性能拥有千亿参数大模型,都面临着存储占用高、推理速度慢的问题。模型量化作为一种核心...

16431

大模型应用:大模型量化:INT4与INT8核心差异、选型指南及代码实现.53

未闻花名

大模型的量化我们前期也探讨了基础概念和实践原理,针对CPU的量化流程做了通俗易懂的基础说明,但实际应用场景往往是需要GPU的落地实践,随着大模型参数规模突破千亿...

31841

大模型应用:量化校准:全局/分组 Min-Max、GPTQ、AWQ 算法最优匹配.54

未闻花名

一直以来,我们都围绕大模型的本地部署由浅入深的仔细讨论,大模型的落地困境从来离不开“显存”与“速度”,以 LLaMA-7B 为例,FP32 精度下显存占用高达 ...

46521

大模型应用:中小显存适配方案:大模型微调底座选型指标与应用实现.52

未闻花名

在大模型微调落地场景中,中小算力设备是多数开发者的主力工具。此类设备面临显存有限但需满足特定任务需求的核心矛盾,以中文电商文案生成为例,需兼顾文案流畅度,同时确...

31521

大模型应用:大模型越大越好?模型参数量与效果的边际效益分析.51

未闻花名

我们接触大模型以来,经常听到什么模型有多少亿参数,通常1B/7B/13B/34B/70B/175B或者GPT有 1750 亿参等等这类说法,很容易让我们陷入模型...

28631

大模型应用:大模型的token频率偏见:高频词与低频词的嵌入表示差异分析.46

未闻花名

随着大模型技术深入渗透到日常对话、专业咨询、内容创作等多元场景,模型对高频词汇的理解精准度远超低频词汇,这种差异直接影响着输出结果的可靠性与实用性。从底层逻辑来...

26031

大模型应用:本地大模型API调用鉴权可视化全解析:从基础实现到业务扩展.45

未闻花名

随着大模型本地化部署的普及,基于 FastAPI 封装大模型接口并实现鉴权、可视化交互,成为实现落地大模型应用的核心场景。前一篇博文我们讲解了大模型本地化部署以...

26521

大模型应用:多尺度注意力解析:大模型特征提取的基础概念与应用价值.43

未闻花名

在大模型的特征提取技术中,注意力机制是核心支柱,它让模型能聚焦关键信息。但传统单尺度注意力存在明显短板,要么只盯着局部细节,忽略全局逻辑;要么只抓整体框架,丢失...

18131

[论文速递]QV maybe enough in LLM: MQA/GQA/MLA 的统一解释

windyrobin

本文从常识出发、从自然语言的词性分析/句式分析的视角,深度探讨、推导得到Transformer 模型中 QKV 机制的本质,并据此给出目前流行的MQA/GQA/...

22401

大模型应用:大模型的词表扩展:中文生僻字、专业术语的词嵌入适配方案.42

未闻花名

在大模型的中文应用落地过程中,我们常常会遇到这样的问题:面对古籍里的生僻字(如“𪚥”、“龘”)、特定领域的专业术语,如人工智能领域的 “LoRA 微调”、生物医...

27521

大模型应用:语料库治理实战:基于 text2vec+BERT 的由浅入深解析.41

未闻花名

相信我们在接触大模型已经从很多地方收集各类零零散散的信息,数据的高价值已是行业共识,但并非只有海量数据才有价值,对于类似我们这样的中小企业、个人开发者或垂直场景...

24731

大模型应用:大模型训练数据治理:噪声过滤与高质量中文语料构建实践.40

未闻花名

大模型的性能上限,一半取决于模型架构与训练策略,另一半则由训练数据的质量决定。尤其对于中文大模型而言,中文语料存在来源繁杂、噪声冗余、格式不统一、语义歧义等问题...

28621

大模型应用:通俗理解大模型量化:从概念到实践的原理流程完整拆解.38

未闻花名

从我们日常接触的电脑存储开始理解,我们可以先回忆一下手机、电脑里的数据存储规则:大模型的核心是海量参数,可以理解为模型学到的知识,像一本超级厚的字典,这些参数在...

54221

为什么大模型能记住那么多知识?从参数到涌现能力讲透

ETL 小当家

🚀 本文收录于Github:AI-From-Zero 项目 —— 一个从零开始系统学习 AI 的知识库。如果觉得有帮助,欢迎 ⭐ Star 支持!

15010

大模型应用:混合专家模型(MoE):大模型性能提升的关键技术拆解.37

未闻花名

最近我们强化学习了很多大模型相关知识,应该也注意到了“MoE”这个词,比如什么模型用了MoE架构,MoE让大模型性能得到大幅提升等等,我们初看一扫而过,再看一脸...

68731

大模型应用:不减性能只减负担:大模型稀疏化技术全景与实践.36

未闻花名

大模型稀疏化的核心是通过参数级静态精简与激活级动态调度,让模型中大部分参数为零或不参与计算,仅保留核心有效连接和神经元,实现“体积瘦身、计算减负、精度稳中有升”...

22721

从输入到回复:大模型靠 Token 接龙 “猜” 出你的答案

编码未来

大模型作为人工智能领域的明星产物,其诞生与迭代始终以人类语言及行为数据的深度学习为核心。通过吸纳书面文字、影音字幕、日常对话等海量多元数据,借助数百亿甚至上千亿...

13100

大模型应用:RAG与向量数据库结合Ollama调用模型深度融合全解析.27

未闻花名

通过多篇博文我们也反复介绍说明了大模型知识滞后、生成幻觉成为制约智能问答、企业知识库等场景落地的核心痛点,检索增强生成(RAG)技术通过“外部知识检索 + LL...

78733
领券