一、产品定位与核心亮点 技术定义:腾讯混元大模型信贷助手是由腾讯金融云解决方案中心(负责人:林伟城,CSIG云与智慧产业事业群)研发的,基于混元大模型及专属模型能力(混元多模态智构解析、混元生成式推理提取 场景化微调模型:分预处理(非标文档、多模态结构化、超长文档解析)和后处理(信息提取、分析、对比),结合混元通用大模型、智构模型、多模态模型、KV推理模型、财务模型。 二、产品应用场景 受众:零售信贷机构、大对公信贷机构、非银机构、银行、券商等。 特定业务场景痛点: 零售信贷:额度小、风险分散、数字化程度高,AI应用需深化全流程。 大对公信贷:额度大、风险集中、业务复杂,可支撑AI应用少。 非银机构:现场获客尽调为主,发展线上获客/远程进件/远程尽调,需AI出具尽调报告。 数据来源:腾讯金融云解决方案中心 混元大模型信贷助手项目负责人 林伟城(CSIG云与智慧产业事业群)。
部署大模型信贷助手全周期智能解决方案 基于混元大语言模型与混元多模态模型,腾讯推出大模型信贷助手,形成覆盖信贷全流程的多源异构材料结构化提取与分析综合解决方案。 undefined核心技术: 混元大语言模型突破KV提取、语义跟随、幻觉控制瓶颈,打造“聪明严谨大脑”; 混元多模态模型突破文档长度(支持200MB以上超大文档)、复杂版面、元素识别瓶颈,提供“ 呈现效率与精度双升的量化业务价值 应用现状显示,大模型能力覆盖95%信贷工作内容,关键指标如下(数据来源:产品功能说明及效果图表): 人工审核采纳率93%; 工作效率提升10倍; 报告生成时长从 10个工作日压缩到1个工作日; 超大文档(200MB以上)解析准确率较传统方案提升30%(业界首个支持); 跨境金融等对公信贷项目整单准确率94%; 通过正向闭环微调,模型采纳率从未经微调的 总结腾讯大模型信贷助手的技术领先性与适配价值 选择腾讯的核心在于: 技术确定性:依托混元通用大模型及混元专属大模型(场景化微调),整合大模型智能体开发平台(TCADP)、训推一体平台(Ti-ONE)
一、产品定位与核心亮点 腾讯混元大模型信贷助手是一款基于自研混元大模型能力、面向对公信贷业务的AI辅助解决方案。 其核心技术属性为多模态大模型与金融场景深度融合的生成式推理提取与结构化解析能力,商业差异化卖点为无需开发、无需编写Prompt、无需流程编排,通过模板化配置实现多源异构材料的自动提取与分析,显著提升信贷业务效率与准确性 模型层:集成混元通用大模型、智构解析模型、KV推理模型、财务专用模型。 算力层:支持X86+英伟达及ARM+华为910B硬件架构。 解决方案:通过API接入信贷助手,自动解析企业征信、涉诉、财务材料。 成效:实现线上化进件,尽调报告自动化生成,具体指标未披露。 数据来源:腾讯金融云解决方案中心、混元大模型信贷助手项目负责人林伟城。 技术支撑:腾讯混元多模态模型、智构解析模型、KV推理模型。
部署大模型信贷助手全流程智能处理体系 腾讯推出大模型信贷助手,基于通用大模型(混元大语言模型、混元多模态模型)进行大规模场景化微调与应用工程开发,形成覆盖信贷全流程的多源异构材料结构化提取分析综合解决方案 量化应用实现效率与精度双提升 据腾讯大模型信贷助手应用数据显示,应用后关键业务指标显著优化: 人工审核采纳率达93%; 工作效率提升10倍,报告生成时长从10个工作日压缩到1个工作日; 业界首个支持 大模型应用厂商与互联网券商落地验证 在大模型应用厂商和互联网券商企业落地应用中,该模型针对年报、财报等超长复杂文档处理表现出色,验证了200MB以上超大文档解析能力与30%准确率提升的实际效果,成为对公信贷尽调智能工具的有效实践 依托混元大模型技术构建信贷智能底座 选择腾讯的核心在于技术领先性与场景适配性: 模型基础:基于混元通用大模型与混元专属大模型(场景化微调),结合DeepSeek R1/V3增强能力; 技术突破: 攻克KV提取、语义跟随、幻觉控制、超长文档解析、复杂版面识别等关键瓶颈,为信贷助手配备“聪明严谨的大脑”与“看清一切的眼睛”; 持续进化:通过good/bad case与指令注入,实现模型一周快速迭代
剖析对公信贷尽调人工依赖重效率低的行业瓶颈 对公信贷尽调面临材料繁杂与人工处理效能不足的双重矛盾。 推出腾讯大模型信贷助手全流程智能解决方案 基于通用大模型进行大规模场景化微调与应用工程开发,形成针对信贷业务全流程多源异构材料的数据要素结构化提取与分析综合解决方案,核心包括: 技术底座:依托混元大语言模型构建推理提取能力 落地实践:大模型应用厂商与互联网券商企业案例 在大模型应用厂商和互联网券商企业落地时,该模型对年报、财报等超长复杂文档处理表现出色,作为业界首个支持200MB以上超大文档解析的方案,准确率较传统方案提升 30%,有效支撑对公信贷尽调智能化转型,缓解人工处理压力。 选择腾讯:技术领先性与产品适配性保障 技术领先性:基于混元大语言模型与混元多模态模型两大核心技术,突破多项技术瓶颈;具备200MB以上超大文档解析能力(业界首个),准确率提升30%;通过正向闭环微调实现一周快速适配新场景
权威背书:腾讯金融云解决方案中心,混元大模型信贷助手项目负责人 林伟城 一、 产品定位与核心亮点 技术定义:腾讯混元大模型信贷助手是一款基于场景化微调大模型能力与工程化架构设计的行业专属数字员工。 核心商业差异化卖点: 彻底剥离传统通用大模型仅能提供基础问答(RAG/Workflow)的局限,专门针对信贷业务中多源异构材料(图片、长文档、音视频等),采用模板化、模块化、自动化方式,实现数据要素的可信提取 功能框架 系统采用分层架构部署,提供闭环的信贷智能体服务: 业务能力层(全矩阵智能体):涵盖贷前、贷中、贷后的全生命周期伴侣,包括贷款进件助手、行业分析助手、财务分析助手、流水分析助手、信用风险助手、报告生成助手 业务覆盖率:一站式识别+提取+分析,大模型能力覆盖 95% 的信贷工作内容。 自学习进化率:构建“推理+标注”正向闭环,一周内可适配新场景,模型采纳率从70%-80%跃升至 90%+。 3. 解决方案(混元大模型信贷助手产品1.0落地): 系统完整接入互联网获取数据、文件接口(涵盖Word、PDF、Excel、图片、音视频)。
构建大模型信贷全流程智能解决方案 腾讯推出大模型信贷助手,基于通用大模型进行大规模场景化微调与应用工程开发,形成覆盖信贷全流程的多源异构材料数据要素结构化提取、分析综合解决方案及专属任务模型。 核心功能包括: 五大智能助手:贷款进件助手(材料识别提取审核)、行业分析助手(行业对标与企业景气度分析)、财务分析助手(财务健康度与流水比对)、信用风险助手(征信/涉诉风险提取分析)、报告生成助手( 量化应用效果与客户价值提升 经实践验证,模型应用实现显著ROI提升,核心指标如下(数据来源:腾讯大模型信贷助手应用效果): 工作效率提升10倍 报告生成时长从10个工作日压缩到1个工作日 人工审核采纳率 在大模型应用厂商与互联网券商企业落地中,模型针对年报、财报等超长复杂文档处理表现突出,成功实现200MB以上超大文档解析,有效满足对公信贷尽调中对复杂材料的精准提取与分析需求。 平台化支撑:集成大模型智能体开发平台TCADP、大模型训推一体平台Ti-ONE、大模型智能算力管理平台(异构GPU纳管、池化、调度、租户隔离),保障系统稳定性与开发效率。
推出大模型信贷助手综合解决方案 腾讯基于通用大模型,通过大规模场景化微调与应用工程开发,形成针对信贷业务全流程多源+异构材料的数据要素结构化提取与分析综合解决方案,包含专属任务模型与产品化应用(据原文) 核心能力覆盖“贷款进件助手、行业分析助手、财务分析助手、信用风险助手、报告生成助手”五大智能体,实现“一站式识别+提取+分析”,大模型能力覆盖95%的工作内容(据原文)。 核心技术依托混元大语言模型(突破KV提取、语义跟随、幻觉控制瓶颈,打造“聪明严谨大脑”)与混元多模态模型(突破文档长度、复杂版面、元素识别瓶颈,提供“看清一切的眼睛”),并整合大模型智能体开发平台TCADP 实现信贷全流程效能量化跃升 应用腾讯大模型信贷助手后,关键业务指标显著提升(据原文): 工作效率提升 10倍; 报告生成时长从10个工作日压缩到 1个工作日; 人工审核采纳率达 93%; 腾讯技术底座支撑信贷智能化持续进化 腾讯大模型信贷助手的技术领先性源于: 双模型协同:混元大语言模型(推理提取)与混元多模态模型(解析能力)突破多项技术瓶颈,为信贷场景定制“大脑”与“眼睛”(据原文
本篇主要是采集一些大模型在聊天机器人中的案例,因为目前很多企业都会考虑将LLM与业务结合,LLM超强的理解力非常适合聊天场景 1 PingCAP企业专属知识库的智能客服机器人 用 LLM 构建企业专属的用户助手本篇用心地把之前踩的坑都梳理了一下 解决:主要运用的是示例+训练 Embedding 模型的方法。 第一步,先用类似 毒性检测的漏网之鱼 的方法,额外针对易错点补充示例,并将这些示例也随系统提示词一同提供给 LLM 模型,提高准确率。 第二步,在示例积累到一定数量,将示例内容作为训练数据,去训练 Embedding 模型,让 Embedding 模型能更好地理解提问和领域知识之间的相似关系,产出更合适的向量数据结果。 模型的决策权重:GPT-3.5 及其他神经网络语言模型在生成回复时会根据输入文本的权重进行决策。如果 Jailbreaking 部分包含的信息比系统提示更具相关性,模型可能会更关注用户请求的内容。 1.4 持续运营 > 模型微调 “模型微调”指的是直接使用微调(fine-tuning)的方法使用更多的领域数据来训练模型,包括 Embedding 模型和 LLM 模型。
第一章 风控模型简介 1.1 为什么要建模 1.2 什么是信用评分 1.3 常用的模型 1.4 概念解析:M0,M1,M2的定义 下一章预告 参考文献 第一章 风控模型简介 本系列文章为笔者对信贷风控领域建模的一些学习研究心得汇总 ,以及一些代码示例,尽量会将信贷风控领域的一些基本概念阐述明白。 在你申请的时候就会站出来,决定放不放款,B卡,也就是贷中行为评分卡,监控你的信用状况,决定给不给你提额度,或者中不中断你的贷款,C卡就是贷后评分卡,一般有三种:账龄迁移模型、还款率模型和失联预警模型。 还款率模型:注意这个模型不是为了预测你还不还钱,而是预测未来经过催收动作后,还款的概率。 所谓的M0就是2月5号到下个月账单日—-3月16日期间我不还清账单,也就是产生了M0逾期。 假如我继续不还,也就是3月16号我还拖着,直接延伸到M1,那么M1就是3月16日到4月4日。
TGW是Text-Generation-Webui项目的缩写,这是2023年随着ChatGPT的火爆浪潮中,让我们能搭配开源LLM模型,在本地搭建可对话智能助手的项目,就不用整体担心源头单位的朝令夕改所产生的风险 https://github.com/oobabooga/text-generation-webui 开源之后,至今已有近4万个星以及5000多个folks,是个十分非常热门的项目,也被视为是学习自制本地化大模型对话智能助手类型项目的入门应用 TGW项目的主要特性如下: 提供3种交互界面:两列模式(默认)、笔记本模式和聊天模式。 只要能把TGW玩得熟练,就能在这个基础上非常轻松地开发自己的有趣大模型应用。 那现在已经可以开始让TGW变成智能助手了吗?还不行,因为我们尚未提供合适的大语言模型来预支匹配,这是下一步骤需要操作的部分。
TGW是Text-Generation-Webui项目的缩写,这是2023年随着ChatGPT的火爆浪潮中,让我们能搭配开源LLM模型,在本地搭建可对话智能助手的项目,就不用整体担心源头单位的朝令夕改所产生的风险 https://github.com/oobabooga/text-generation-webui 开源之后,至今已有近4万个星以及5000多个folks,是个十分非常热门的项目,也被视为是学习自制本地化大模型对话智能助手类型项目的入门应用 TGW项目的主要特性如下:提供3种交互界面:两列模式(默认)、笔记本模式和聊天模式。 只要能把TGW玩得熟练,就能在这个基础上非常轻松地开发自己的有趣大模型应用。 那现在已经可以开始让TGW变成智能助手了吗?还不行,因为我们尚未提供合适的大语言模型来预支匹配,这是下一步骤需要操作的部分。
应对尽调效率瓶颈 贷款利率持续下行推动信贷市场下沉,对公贷前尽调工作量成倍增加。金融机构加速线上化、数字化和智能化转型过程中,对公信贷70%以上数据属于非结构化数据,严重依赖客户经理人工处理。 部署智能信贷助手 腾讯云基于混元通用大模型,通过大规模场景化微调与应用工程开发,推出大模型信贷助手解决方案。 ,整单数据处理准确率达94%(腾讯云项目数据) 某金融机构智能尽调实践 在跨境金融与产业金融项目中,该助手实现了企业合同、发票、货单等多源数据的自动提取与填报。 通过持续学习机制,模型在典型场景中的采纳率从微调前的70%-80%提升至90%。 技术领先性与适配能力 腾讯混元多模态大模型具备业界领先的超长文档处理能力,配套大模型训推一体平台(Ti-ONE)与智能体开发平台(TCADP)提供全流程支持。
通过这一平台,开发者能够利用文心大模型,针对自己的行业和应用场景,选择适合的开发方式,打造具有时代特征的产品。 我们只需要输入我们想创建的智能体名称,创建助手将根据你的描述,为智能体生成名称、简介、开场白、指令和引导示例等基础配置。 2.2 智能体Prompt配置 我们先简单来介绍一些Prompt智能体相关的一些知识: 智能体prompt指令是一种用于指导或激活智能体(如人工智能模型)执行特定任务的输入方式。 例如咱们的大模型开发教学智能体设定如下: 角色与目标 作为一个大模型相关的专家,你的主要任务是解答用户的代码问题,教授机器学习的基础知识,以及解释大模型算法。 在解释大模型算法时,需要清晰地阐述算法的原理、应用以及优缺点,以便用户能够全面了解。 若用户的问题超出你的知识范围或无法清晰解答,应诚实告知用户,并尝试提供相关的学习资源或建议。
首先 , 安装 Ollama 软件 , 到 https://ollama.com/ 下载安装 ; 然后 , 运行 ollama run llama3 命令 , 即可开始使用 Llama3 大模型 ; 一 、Meta Llama 3 大模型安装 1、Llama 3 大模型简介 Llama 3 大模型 是 Meta 公司 发布的 大模型 , Meta 公司 就是 Facebook ; Llama 3 大模型 Llama3 大模型 ; 下载的模型放在了 C:\Users\用户名.ollama 目录中 , 在我的电脑上的路径是 C:\Users\octop.ollama ; 这个模型很大 , 有 4.7 G 安装完成后的效果 for help) 二、Meta Llama 3 大模型使用 1、Llama 3 大模型在线使用 在命令行中 , 可以直接进行对话 , 下面是对话内容 : D:\Llama>ollama run llama3 for help) 2、Llama 3 大模型离线使用 Llama 3 大模型 联网时 , 可以访问云端服务 , 可以生成更加丰富的文本 ; Llama 3 大模型 在 断网后也可以使用 , 下面是断开网络后
好家伙,华为HarmonyOS接入大模型,智慧助手可以这么玩了吗? 小艺拥抱大模型 小艺依托的底层模型是华为盘古系列。 今年7月,华为正式发布盘古大模型3.0,并提出3层模型架构。 1000亿参数,预训练使用了超3万亿tokens。 加之原生HarmonyOS也使得优化现有API成为可能,通过这种反向适配,也能更好发挥大模型特长。 面向全场景、不局限于手机端 所以,为什么是华为能如此迅速将大模型能力部署到智慧助手上? 随着最新一轮AI趋势爆发,RLHF给大模型带来显著提升,产业落地的大门正式开启。 今年生成式AI趋势发生以来,诸多应用都选择接入大模型能力、内置智慧助手。
LangSmith:大模型应用开发的得力助手大语言模型(LLM)快速发展,构建高效、可靠的 LLM 应用成为开发者核心需求;但开发过程中,缺乏对应用内部运行的洞察,导致调试和优化难度显著增加;LangSmith 更需了解其运行过程及输出产生的原因;以 LangChain 构建的复杂应用为例,执行流程可能是:用户提示词→链→工具调用→子链→LLM→输出→LLM→最终输出;无 LangSmith 时,该流程如同黑箱,调试难度大; RunnableSequence)是应用顶层调用;父节点(LLMChain)是具体链或代理;子节点展示父节点组件的执行细节 ——(PromptTemplate) 显示填充变量后的完整提示;(LLM Call) 记录模型调用的名称 3. 实践之旅:构建可观测的 LLM 应用3.1 准备工作注册与密钥获取:访问 LangSmith 官网,用 GitHub 或 Google 账号登录。 本地创建项目文件夹并进入:mkdir langsmith - translatorcd langsmith - translator创建 Python 虚拟环境隔离依赖:\# Mac/Linuxpython3
第二章:部署专属大模型信贷助手,构建一站式智能尽调闭环 针对上述痛点,腾讯云基于通用大模型底座(涵盖腾讯混元大模型及 DeepSeek R1 / V3 等),通过大规模场景化微调和应用工程开发,推出“腾讯大模型信贷助手 业务覆盖度:实现“识别+提取+分析”的一站式工作流,大模型能力覆盖了信贷经理 95% 的工作内容。 第三章:尽调报告生成周期压缩至1个工作日,人工审核采纳率达93% 通过引入大模型信贷助手,信贷尽调业务在效率与质量上实现了量化的显著提升,核心业务指标表现如下: 产能与效率释放:工作效率实现 10倍 的整体提升 第四章:深入跨境与产业金融场景,支撑超大篇幅招股书精准解析 腾讯大模型信贷助手已在多个复杂的金融与商业场景中落地,并展现出强大的复杂任务处理能力: 超长文档解析场景:在大模型应用厂商和互联网券商的企业落地应用中 第五章:突破多模态解析与幻觉控制瓶颈,实现模型可溯源与持续进化 大模型信贷助手能够实现上述业务价值,核心在于其底层的两大核心技术突破与四大产品工程优势: 底层技术突破: 多模态解析能力:突破文档长度、复杂版面及元素识别等技术瓶颈
上一篇文章里,我们使用NanoLLM所提供的nano_llm.agents.web_chat智能体,调用Llama-3-8B-Instruct模型,并修改ASR与TTS调用的档来支持中文的输入与输出,非常轻松地搭建 Llamaspeak语音助手。 本文将进一步以前面的基础,将Llama-3-8B-Instruct模型换成支持VLM的大语言模型,就能立即将原本纯语音的Llamaspeak变身成为多模态的语音助手。 大致的效果是这样的,就一个大语言模型来说,这已经算是相当厉害了,而且回答过程几乎没有任何延迟。 大家可以从支持大模型列表中,尝试更多其他的模型来看看效果,因为NanoLLM已经让我们不需要写代码,就能跑出这么厉害的应用,多试几种模型所消耗的也就是下载模型的时间与带宽而已。
简单3步部署本地国产大模型DeepSeek大模型DeepSeek是最近非常火的开源大模型,国产大模型 DeepSeek 凭借其优异的性能和对硬件资源的友好性,受到了众多开发者的关注。 本文将介绍如何通过简单 3 步在本地部署 DeepSeek 大模型,让你能够轻松体验这一强大的 AI 工具。 deepseek-r1的哪个版本的大模型? 它支持各种LLM,包括Llama 3、Mistral和Gemma。提供了类似OpenAI的API接口和聊天界面,可以非常方便地部署最新版本的GPT模型并通过接口使用。 理论上就安装完成了,可以只在命令行中使用大模型了。修改路径文件保存路径可以不用改,如果C盘空间不够用,建议修改。