首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • AI模型知识

    而基于AI模型构建的知识库系统,通过自然语言处理技术和深度学习算法,能够自动完成文本解析、语义关联与智能检索,使分散的知识资源形成有机网络,为企业知识管理带来革命性变革。 相较于传统方案,AI模型知识库在技术特性上展现出显著优势:语义理解深度方面,传统方案依赖关键词匹配,误差率高,而AI方案具备上下文感知能力,准确率超92%;更新维护成本上,传统方案人工录入月均耗时120h 二、典型应用场景落地AI模型知识库在多场景落地应用,创造显著价值:智能问答机器人可7×24小时解答员工关于政策制度、操作流程的咨询,某金融机构部署后人力咨询量下降47%,提升咨询响应效率;辅助决策沙盘整合市场动态 三、实施路径规划建议成功部署AI模型知识库需经历三个阶段:首先是领域定制化训练,使用企业专属语料对基座模型进行调优,确保模型适配企业业务场景;其次是人机协同校验机制建立,通过人工复核保障输出内容的合规性与准确性 五、未来演进方向展望随着多模态融合技术的发展,下一代AI模型知识库将突破文本局限,实现图纸三维模型与操作视频的联动检索,拓展知识呈现与应用形式。

    38110编辑于 2025-10-16
  • 来自专栏深度学习自然语言处理

    FuseLLM:语言模型知识融合!

    虽然模型集成需要并行部署多个模型,但权重合并通常仅限于具有相同架构的模型。相反,本文提出的方法通过将多个LLM的知识和能力明确地转移到目标LLM,支持将多个具有不同架构的LLM融合。 Knowledge Distillation:知识蒸馏最初被提出用于模型压缩,包括在一个或多个教师模型的指导下训练学生模型。在NLP中已有较为广泛的应用。本文的方法与传统的知识蒸馏有显著的区别。 首先,在传统的知识蒸馏中,学生模型通常被限制为比教师更小的尺寸。然而,在本文的场景中,目标模型的大小没有限制。其次,传统的知识蒸馏通常会导致学生模型在蒸馏后落后于教师的表现。 相比之下,本文预计在融合之后,目标模型将超过任何源模型的性能。 方法 模型架构 上图展示了传统模型融合技术和本文的LLM知识融合方法(FUSELLM)的对比。不同的动物图标代表不同的LLM。 这表明FuseLLM 通过通过连续训练集成三个具有不同架构的7B模型来实现的卓越性能超过了简单地从单个13B模型中提取知识的好处。

    1.1K11编辑于 2024-01-31
  • AI 模型知识管理平台:让企业知识“活”起来

    基于 AI 模型知识管理平台正彻底改变这一现状,让知识真正流动起来,成为驱动企业创新的活水源头。图片什么是 AI 模型知识管理平台? 核心技术:RAG 如何让模型更“懂”企业?AI 知识管理平台的核心技术是检索增强生成(RAG)。这一技术巧妙结合了信息检索和语言模型生成的优势。 当用户提问时,平台会先在知识库中检索相关信息,然后将这些信息作为上下文提供给模型,最终生成精准可靠的答案。 这种方法既利用了模型的强大理解能力,又确保了回答内容基于企业权威知识,有效避免了常见的模型“幻觉”问题。例如,潍柴集团通过此类平台,在客服场景中实现了94% 的问答准确率,大幅提升了工作效率。 结语AI 模型知识管理平台不仅是技术工具,更是企业智能化转型的核心基础设施。它让知识从静态存储变为动态资源,从成本中心转化为价值引擎。对于技术社区而言,这一领域充满创新机遇。

    32810编辑于 2025-10-11
  • 来自专栏创作是最好的自我投资

    知识蒸馏:让模型“瘦身”的魔法

    AI界的“知识浓缩术”核心定义蒸馏模型(Distillation Model)是一种通过“师生教学”的方式,将庞大复杂的模型(教师模型)中的核心知识,“浓缩”到轻量级小模型(学生模型)中的技术。 传统训练 vs 知识蒸馏传统训练:学生模型就是直接从数据中学习(如同自学),需要模型自己从海量数据中提取自己需要的信息,就像你想上学,但是没有资金支持,只能自己通过书籍来学习,那么在没有人指导的情况下 对于模型来说,通常的数据训练只能保证在通常情景下的问题回答,在涉及到一些相对专业的领域往往回答效果就不是太好,这个时候就需要进行微调优化,比如对特定领域进行特定数据的训练,从而提高在特定领域的回答准确性 未来展望:蒸馏模型将如何改变AI?边缘计算革命:智能音箱、摄像头等设备将具备本地大模型能力。就像把模型拆解成无数"小模型",从而在手机、摄像头、工厂机器人甚至红绿灯里就地处理数据。 通过在智能终端增加大模型能力,从而使得智能家居不联网也能听懂指令。这也就意味着让数据不再拥堵在"云端高速公路",从而既保护隐私又省电,像给模型装上会思考的"神经末梢"。

    98630编辑于 2025-04-09
  • 来自专栏老张的求知思考世界

    性能测试知识科普(六):三模型

    今天的这篇文章是性能测试知识科普的第六篇,我会聊聊在实际工作中开展性能测试,前期最核心的工作。即业务模型、流量模型和数据模型这三模型,该如何评估和建立。 为了便于大家理解三模型,我会以电商业务下单的场景来举例说明,如下图: 业务模型 大家可以将业务模型看作功能测试中的业务场景。 生产环境全链路压测场景 针对生产集群的全链路压测,常见的案例就是双11电商促。 ; 构建流量模型 下面是之前我实际工作中一次双11促时的流量模型构建案例,仅供参考。 预估促时的支付转化率为60%,则可得:促峰值订单支付QPS为(200/40%)*60%*(200W/50W)=1200QPS。

    1.5K20编辑于 2023-03-01
  • 模型+知识库rag项目架构

    在AI领域,“模型”通常指的是具有大量参数的深度学习模型,它们能够处理复杂的任务,如自然语言处理(NLP)、图像识别等。 而“知识库”则是指存储大量结构化或半结构化数据的系统,这些数据可以用于支持决策、提供信息查询等服务。 将模型知识库结合的项目架构(RAG项目架构)可能指的是一种结合了检索(Retrieval)和生成(Generation)的架构,即RAG(Retrieval-Augmented Generation RAG架构的一般流程如下:检索阶段(Retrieval):首先,系统会从知识库中检索出与输入查询相关的信息。这可以通过关键词匹配、语义搜索或其他相关性度量来实现。 例如,检索系统可以使用不同的搜索引擎或推荐系统,而生成模型可以是传统的语言模型,也可以是专门为特定任务训练的模型

    91210编辑于 2024-04-19
  • 来自专栏技术丛林大冒险

    基于语言模型构建知识问答系统

    本文探索使用语言模型(Large Language Model, LLM),通过其对自然语言理解和生成的能力,揣摩用户意图,并对原始知识点进行汇总、整合,生成更贴切的答案。 从语言模型(Large Language Model, LLM)角度而言,上面的需求是在两阶段训练模式下,面向下游场景进行适配的问题。 与普通搜索结合,使用基础模型对搜索结果加工。Fine-Tuning使用下游特定领域的知识对基础模型进行微调,改变神经网络中参数的权重。 消耗的资源量虽然相对模型预训练减少,但还是不容小觑的。比如Alpaca 的微调,据作者介绍他们使用8 个 显存80GB A100 ,花费了 3 个小时。 在尝试使用ADGEN数据集微调后,模型对“广告词生成”任务的确变好,但其他任务的回答均不如原始模型。基于 Prompt将特定领域的知识作为输入消息提供给模型。类似于短期记忆,容量有限但是清晰。

    7K85编辑于 2023-05-08
  • 来自专栏《活动征集》

    DeepSeek模型的基础知识解析!

    作为一款国产模型,DeepSeek不仅在技术上做出了突破,还承载着国产AI的雄心壮志。很多人对模型可能还抱有一丝困惑,尤其是像 DeepSeek 这样的模型。那么,DeepSeek究竟是什么? 前言:DeepSeek,国产模型的代表   近年来,随着深度学习的迅猛发展,模型成为人工智能领域的主流。 DeepSeek 作为国产模型的佼佼者,不仅仅代表了技术上的创新,也象征着中国在 AI 领域日益崛起的竞争力。 但许多人可能会疑问,“什么是模型?” “DeepSeek 怎么与我们常见的 AI 模型不同?” “它到底是怎么工作的?” 别担心!在这篇文章中,我们将带你一探究竟。 预训练与微调:模型的“养成”之路   DeepSeek 采用了 预训练 + 微调 的训练方式。首先,模型在大规模的无标签数据上进行 预训练,学习通用的知识和规律。

    79121编辑于 2025-02-08
  • 来自专栏从流域到海域

    模型基础知识 - 语言模型及其演进 公开版

    接下来我们来从0到1了解一下语言模型背后的基础知识。 导语 通过本节课程,希望大家能够了解: 语言模型的数学基础:概率语言模型 (25分钟) 神经网络语言模型的发展历史:即语言模型是如何发展而来的 (10分钟) GPT训练流程:语言模型是如何训练的 ( Scaling Laws for Neural Language Models 神经网络语言模型发展史 nlp中的预训练语言模型总结(单向模型、BERT系列模型、XLNet) 模型时代之前 ,语言模型的雏形出现。 随着神经网络语言模型的参数量继续增大到一个千亿级别,开始表现出强大的涌现能力,辅以instruction fituning和RLHF的(语言模型)训练流程改进,突破性的语言模型ChatGPT出现,模型时代来临

    74430编辑于 2023-10-12
  • 来自专栏NLP/KG

    LLM 模型学习必知必会系列(一):模型基础知识

    2023 年 7 月,上海人工智能实验室在 WAIC 2023 开幕式和科学前沿全体会议上,联合多家机构发布全新升级的 “书生通用模型体系”,包括书生 · 多模态、书生 · 浦语和书生 · 天际等三基础模型 ,以及首个面向模型研发与应用的全链条开源体系。 3.使用 LLM 及优化 LLM 输出效果 语言模型是根据跨学科的海量的文本数据训练而成的,这也让语言模型被大家认为最接近 “AGI” 的人工智能。 然而,针对语言模型,我们希望更好的使用 LLM,让 LLM 更好的遵循我们的指令,按照我们可控的方式和特定行业的知识输出答案。 检索增强生成 (RAG) 通过整合来自外部数据库的知识成为一个有前途的解决方案,这增强了模型的准确性和可信度,特别是对于知识密集型任务,并且允许知识的不断更新和整合特定领域的信息。

    4.1K512编辑于 2024-05-11
  • AI 语言模型知识图谱:让模型“更懂知识、更聪明、更可信”

    在传统的模型训练方式中,知识依赖海量语料“读出来”,但容易出现知识碎片化、逻辑断层、更新不及时的问题;模型回答看似流畅,却可能犯事实性错误或在复杂推理上“卡住”。 而 AI 语言模型知识图谱,就是用结构化、逻辑化、可计算的技术体系,为模型安装一套“知识骨架”,让模型不仅会说,还真正“懂知识、会推理、能更新”。 知识不再是散乱的语句,而是能够被计算机理解和逻辑推演的网络。二是知识图谱 + 模型协同推理,让模型“更准、更稳、更懂逻辑”。 ,模型在聊天、问答、检索、写作等场景都能调用同一套知识图谱,实现一致的知识标准。 AI 语言模型知识图谱,用知识抽取、结构建模、图谱推理和动态更新,让模型从“会说话”走向“会理解”。它不仅提升模型的准确性与稳定性,也为专业场景提供真正可用的 AI 智能。

    33510编辑于 2025-11-18
  • 来自专栏数智转型架构师

    一文秒懂模型硬件知识

    自从一头扎进AI模型的奇妙世界,你是不是也曾有过这样的经历: 刚刚弄明白“提示词”(Prompt)怎么写,一扭头就撞上了一堵“硬件墙”。 训练一个模型 = 建造一艘航空母舰 所有的硬件术语,我们都可以在这个“造航母”的过程中找到它们的位置。 模型参数、计算数据这些“零件”,必须先搬到工作台上才能开始组装。 为什么总说“显存不够”? 因为模型的“零件”(参数)实在太多了! 训练真正的模型,需要几百上千台服务器(几千上万块GPU)一起工作。这就好比一个巨大的造船工业园,里面有无数个车间。InfiniBand就是连接这些不同车间的“高铁物流系统”。 怎么工作? 你不需要记住每一个细节,只需要理解这个“造航母”的框架。下次当再有人讨论AI硬件时,你的脑海里浮现的不再是冰冷的代码和缩写,而是一个热火朝天的、宏伟的工业图景。

    18810编辑于 2025-12-30
  • 来自专栏数据猿

    【AI模型展】网易数帆代码领域模型——知识增强领域模型加速数智软件生产

    ‍ 网易数帆AI模型 该AI模型由网易数帆投递并参与数据猿与上海大数据联盟联合推出的《2023中国数据智能产业AI模型先锋企业》榜单/奖项”评选。 ‍ 数据智能产业创新服务媒体 ——聚焦数智 · 改变商业 知识增强领域模型是网易数帆独创的一套落地方法论,底层采用网易伏羲、网易杭州研究院、网易数帆AI团队共建的网易玉言模型基座,旨在结合模型微调和知识增强技术降低实施交付成本 应用场景/使用群体 网易数帆知识增强代码领域模型已经和全栈低代码融合,形成了CodeWave智能开发平台,实现了开发、测试、运维等软件生产全链路的智能化,面向企业级业务开发者提供服务。 由于企业很难直接使用模型服务产生价值,将模型融合到已有产品服务中做能力增强或革新可以加快模型技术落地,以低门槛、高上限为特色的全栈低代码是一个经过验证的需求,可以成为模型落地的优质载体,通过AIGC 产品优势 在网易数帆知识增强代码领域模型加持下,即使不具备深厚的技术背景的开发者也可以实现从”智能生成“到”可视化拖拽调整”的全栈低代码应用搭建,让开发过程更加高效,同时也可以提高应用程序的安全性和可靠性

    45010编辑于 2023-10-29
  • 来自专栏AI+运维:智能化运维的未来

    模型技术在运维中的知识管理革命

    于是,模型技术应运而生,为运维中的知识管理带来了革命性的变化。什么是模型技术?模型技术,主要指的是基于深度学习的模型,如GPT-3、BERT等,它们通过训练大量的数据,能够理解和生成自然语言。 这些模型在各个领域都有广泛的应用,尤其在文本生成、翻译、情感分析等方面表现出色。在运维领域,这些模型的应用不仅仅限于简单的文本处理,而是深入到知识管理和自动化运维的方方面面。 模型技术在知识管理中的应用日志分析和异常检测模型可以帮助自动化分析系统日志,检测潜在的异常情况。例如,通过训练一个基于深度学习的模型,可以识别出日志中的异常模式,并及时报警。 知识共享:通过构建智能知识库,团队成员可以方便地获取所需的信息,避免重复劳动。实时响应:模型可以实时分析和处理异常情况,确保系统的稳定运行。 模型的解释性:模型的决策过程往往复杂,缺乏透明性,给故障排查带来一定难度。结语模型技术在运维中的知识管理应用前景广阔。

    35510编辑于 2025-01-23
  • 来自专栏NewBeeNLP

    模型」之所短,「知识图谱」之所长

    01、语言模型知识图谱的对比 首先来对比一下语言模型知识图谱的优势与劣势。 去年 ChatGPT 问世的初期,还曾有声音说知识图谱已经过时了,将被模型所替代。 04、知识图谱助力语言模型能力评测 反过来知识图谱也可以帮助到模型。 1. 、知识应用和知识创新,对模型进行全面测试。 05、知识图谱助力语言模型落地应用 1. 知识图谱作为外接工具或插件提高大模型生成内容的知识准确性和可解释性 知识图谱辅助语言模型的另一个方面是可以帮助模型的落地应用。 模型可以利用知识图谱甄别其中的敏感知识以及相关内容,进而生成更为可靠的答复。 3. 知识图谱可以提升模型的复杂推理能力 知识图谱亦能提升大规模模型的复杂推理能力。

    3.7K10编辑于 2024-05-15
  • 来自专栏深度学习自然语言处理

    模型知道自己“不知道”哪些知识吗?

    幻觉(Hallucination)一直模型比较头疼的问题,为了探索模型有没有可能知道自己「知道哪些知识」,「不知道哪些知识」,我们进行了一次尝试实验。 一种说法是,模型的「幻觉」来自预训练和SFT时,我们总是在「鼓励模型说答案」, 但我们并不确定「这些答案模型是否真的知道」,这样将造成以下 3 个负面影响: 模型在回答的时候,不知道自己可以回答“我不知道 我们发现, 对于一些比较大众的知识模型能够回答正确,而对于一些比较长尾的知识模型往往容易胡乱回答。 我们根据模型的回答内容,分别挑出其回答正确、回答错误的数据各 200 条。 (模型生成答案) -> 模型知道这个知识 '王廷钧'(图谱答案)not in '秋瑾的丈夫是吴昌硕...'(模型生成答案) -> 模型不知道这个知识 ... 2. ✅ 上述 case 表明,模型对于之前一些会「错误回答」的例子学会了「拒绝回答」。 此外,我们还意外地发现:尽管我们在微调过程中没有输入新的知识,却能够让模型纠正之前的错误知识

    81930编辑于 2023-09-11
  • 来自专栏喔家ArchiSelf

    知识图谱成为模型的伴侣

    大型语言模型(LLM)能够在短时间内生成非常流畅和连贯的文本,为人工智能的对话、创造性写作和其他广泛的应用开辟了新的可能性,然而,LLM也有着一些关键的局限性。 知识图谱通过提供结构化的世界知识为语言模型开启了新的推理能力。但是,构建高质量的图谱仍然具有挑战性。这就是数据飞轮的用武之地,通过分析系统交互,不断改进知识图。 对于每个循环,通过分析使用模式和修复数据问题,知识图谱会逐渐增强,改进后的图增强了系统的性能。 这个飞轮过程使得知识图谱和语言模型能够基于来自现实世界使用的反馈进行协同演化。 图谱被积极地修改以适应模型的需要。 总之,数据飞轮通过分析系统交互,为知识图谱的持续、自动改进提供了一个支架。这为依赖于图表的语言模型的准确性、相关性和适应性提供了动力。 6. 随着知识图谱和语言模型的不断发展,它们的集成将开辟了可解释AI 的新领域。

    81010编辑于 2024-01-29
  • 来自专栏喔家ArchiSelf

    模型RAG系统中应用知识图谱

    【引子】 关于模型及其应用方面的文章层出不穷,聚焦于自己面对的问题,有针对性的阅读会有很多的启发,本文源自Whyhow.ai 上的一些文字和示例。 对于在模型应用过程中如何使用知识图谱比较有参考价值,特汇总分享给大家。 在基于模型的RAG应用中,可能会出现不同类型的问题,通过知识图谱的辅助可以在不同阶段增强RAG的效果,并具体说明在每个阶段如何改进答案和查询。 RAG简介 对于复杂的 RAG 和多跳数据检索的一般场景,如下图所示, 关于RAG的更多信息可以参考《模型系列——解读RAG》。 如果实现了物联网中的数字孪生,知识图谱很可能成为代表这种系统和模型之间的模型个性化的最佳手段。

    2K21编辑于 2024-02-26
  • 来自专栏博文视点Broadview

    模型」之所短,「知识图谱」之所长

    另一方面,这种依靠超级计算资源和数据资源打造的模型,在面对真正的应用时显得心有余而力不足,绝大多数情况下,仅仅适用于“刷个榜”,即使财大气粗,也无法真正使用这些看起来非常美好的“模型”。 于是,有识之士在这种“超级算力”+“海量数据”+“模型”的范式之外,提出了以“算法”+“算力”+“数据”+“知识”的新范式。 事实上,对于芸芸众生,这些模型“可望而不可及”。 最近几年我一直在达观数据做自然语言处理和知识图谱的技术研究、产品开发和产业落地方面的工作。 甚至于人工智能巨头也没有很好地用上这些模型。 而以知识图谱为核心的认知智能技术,因加入了“知识”这一人类发展经验的总结,使得能够摆脱“模型”的缺陷,更适合于在各行各业的实践应用。 知识图谱作为人工智能中知识获取、存储和使用的技术,是弥补深度学习和“模型”短处的良方,是缝合认知智能前沿技术理论和产业应用的有效方法。

    99620编辑于 2022-06-13
  • 来自专栏算法一只狗

    模型真正落地的应用:IMA知识

    模型结合知识库问答是一个较为常见且实用的应用场景。例如,我曾经尝试过腾讯的IMA应用,该应用背后依托于混元模型的支持。 这个知识库其实就是利用了混元模型+RAG的架构,在借助于混元模型的帮助,同时不需要微调的情况下,我们就可以搭建属于自己的知识库。 简单来说就是通过大模型LLM的能力,在其基础上引入外部的知识库数据,这样模型AI在回答问题的时候更加的精确。 当然,你也可以在IMA上点开公众号的文章,把一些相关的专题内容也一同保存到知识库。可以看到我在知识库中已经记录了多个笔记和文章的内容。 这时候在提问的时候就可以直接选择知识库中的内容,然后生成文章了,这个创作文章的效率一下子就提升上来了。生成的文章经过混元模型的总结,能够一下子就把具体的内容生成出来。

    4.4K10编辑于 2025-01-14
领券