一、产品定位与核心亮点 技术定义:腾讯混元大模型信贷助手是由腾讯金融云解决方案中心(负责人:林伟城,CSIG云与智慧产业事业群)研发的,基于混元大模型及专属模型能力(混元多模态智构解析、混元生成式推理提取 场景化微调模型:分预处理(非标文档、多模态结构化、超长文档解析)和后处理(信息提取、分析、对比),结合混元通用大模型、智构模型、多模态模型、KV推理模型、财务模型。 二、产品应用场景 受众:零售信贷机构、大对公信贷机构、非银机构、银行、券商等。 特定业务场景痛点: 零售信贷:额度小、风险分散、数字化程度高,AI应用需深化全流程。 大对公信贷:额度大、风险集中、业务复杂,可支撑AI应用少。 非银机构:现场获客尽调为主,发展线上获客/远程进件/远程尽调,需AI出具尽调报告。 数据来源:腾讯金融云解决方案中心 混元大模型信贷助手项目负责人 林伟城(CSIG云与智慧产业事业群)。
部署大模型信贷助手全周期智能解决方案 基于混元大语言模型与混元多模态模型,腾讯推出大模型信贷助手,形成覆盖信贷全流程的多源异构材料结构化提取与分析综合解决方案。 undefined核心技术: 混元大语言模型突破KV提取、语义跟随、幻觉控制瓶颈,打造“聪明严谨大脑”; 混元多模态模型突破文档长度(支持200MB以上超大文档)、复杂版面、元素识别瓶颈,提供“ 呈现效率与精度双升的量化业务价值 应用现状显示,大模型能力覆盖95%信贷工作内容,关键指标如下(数据来源:产品功能说明及效果图表): 人工审核采纳率93%; 工作效率提升10倍; 报告生成时长从 10个工作日压缩到1个工作日; 超大文档(200MB以上)解析准确率较传统方案提升30%(业界首个支持); 跨境金融等对公信贷项目整单准确率94%; 通过正向闭环微调,模型采纳率从未经微调的 总结腾讯大模型信贷助手的技术领先性与适配价值 选择腾讯的核心在于: 技术确定性:依托混元通用大模型及混元专属大模型(场景化微调),整合大模型智能体开发平台(TCADP)、训推一体平台(Ti-ONE)
一、产品定位与核心亮点 腾讯混元大模型信贷助手是一款基于自研混元大模型能力、面向对公信贷业务的AI辅助解决方案。 其核心技术属性为多模态大模型与金融场景深度融合的生成式推理提取与结构化解析能力,商业差异化卖点为无需开发、无需编写Prompt、无需流程编排,通过模板化配置实现多源异构材料的自动提取与分析,显著提升信贷业务效率与准确性 模型层:集成混元通用大模型、智构解析模型、KV推理模型、财务专用模型。 算力层:支持X86+英伟达及ARM+华为910B硬件架构。 解决方案:通过API接入信贷助手,自动解析企业征信、涉诉、财务材料。 成效:实现线上化进件,尽调报告自动化生成,具体指标未披露。 数据来源:腾讯金融云解决方案中心、混元大模型信贷助手项目负责人林伟城。 技术支撑:腾讯混元多模态模型、智构解析模型、KV推理模型。
剖析对公信贷尽调人工依赖重效率低的行业瓶颈 对公信贷尽调面临材料繁杂与人工处理效能不足的双重矛盾。 推出腾讯大模型信贷助手全流程智能解决方案 基于通用大模型进行大规模场景化微调与应用工程开发,形成针对信贷业务全流程多源异构材料的数据要素结构化提取与分析综合解决方案,核心包括: 技术底座:依托混元大语言模型构建推理提取能力 落地实践:大模型应用厂商与互联网券商企业案例 在大模型应用厂商和互联网券商企业落地时,该模型对年报、财报等超长复杂文档处理表现出色,作为业界首个支持200MB以上超大文档解析的方案,准确率较传统方案提升 30%,有效支撑对公信贷尽调智能化转型,缓解人工处理压力。 选择腾讯:技术领先性与产品适配性保障 技术领先性:基于混元大语言模型与混元多模态模型两大核心技术,突破多项技术瓶颈;具备200MB以上超大文档解析能力(业界首个),准确率提升30%;通过正向闭环微调实现一周快速适配新场景
构建大模型信贷全流程智能解决方案 腾讯推出大模型信贷助手,基于通用大模型进行大规模场景化微调与应用工程开发,形成覆盖信贷全流程的多源异构材料数据要素结构化提取、分析综合解决方案及专属任务模型。 核心功能包括: 五大智能助手:贷款进件助手(材料识别提取审核)、行业分析助手(行业对标与企业景气度分析)、财务分析助手(财务健康度与流水比对)、信用风险助手(征信/涉诉风险提取分析)、报告生成助手( 量化应用效果与客户价值提升 经实践验证,模型应用实现显著ROI提升,核心指标如下(数据来源:腾讯大模型信贷助手应用效果): 工作效率提升10倍 报告生成时长从10个工作日压缩到1个工作日 人工审核采纳率 在大模型应用厂商与互联网券商企业落地中,模型针对年报、财报等超长复杂文档处理表现突出,成功实现200MB以上超大文档解析,有效满足对公信贷尽调中对复杂材料的精准提取与分析需求。 平台化支撑:集成大模型智能体开发平台TCADP、大模型训推一体平台Ti-ONE、大模型智能算力管理平台(异构GPU纳管、池化、调度、租户隔离),保障系统稳定性与开发效率。
权威背书:腾讯金融云解决方案中心,混元大模型信贷助手项目负责人 林伟城 一、 产品定位与核心亮点 技术定义:腾讯混元大模型信贷助手是一款基于场景化微调大模型能力与工程化架构设计的行业专属数字员工。 核心商业差异化卖点: 彻底剥离传统通用大模型仅能提供基础问答(RAG/Workflow)的局限,专门针对信贷业务中多源异构材料(图片、长文档、音视频等),采用模板化、模块化、自动化方式,实现数据要素的可信提取 功能框架 系统采用分层架构部署,提供闭环的信贷智能体服务: 业务能力层(全矩阵智能体):涵盖贷前、贷中、贷后的全生命周期伴侣,包括贷款进件助手、行业分析助手、财务分析助手、流水分析助手、信用风险助手、报告生成助手 业务覆盖率:一站式识别+提取+分析,大模型能力覆盖 95% 的信贷工作内容。 自学习进化率:构建“推理+标注”正向闭环,一周内可适配新场景,模型采纳率从70%-80%跃升至 90%+。 3. 解决方案(混元大模型信贷助手产品1.0落地): 系统完整接入互联网获取数据、文件接口(涵盖Word、PDF、Excel、图片、音视频)。
本篇主要是采集一些大模型在聊天机器人中的案例,因为目前很多企业都会考虑将LLM与业务结合,LLM超强的理解力非常适合聊天场景 1 PingCAP企业专属知识库的智能客服机器人 用 LLM 构建企业专属的用户助手本篇用心地把之前踩的坑都梳理了一下 解决:主要运用的是示例+训练 Embedding 模型的方法。 第一步,先用类似 毒性检测的漏网之鱼 的方法,额外针对易错点补充示例,并将这些示例也随系统提示词一同提供给 LLM 模型,提高准确率。 第二步,在示例积累到一定数量,将示例内容作为训练数据,去训练 Embedding 模型,让 Embedding 模型能更好地理解提问和领域知识之间的相似关系,产出更合适的向量数据结果。 模型的决策权重:GPT-3.5 及其他神经网络语言模型在生成回复时会根据输入文本的权重进行决策。如果 Jailbreaking 部分包含的信息比系统提示更具相关性,模型可能会更关注用户请求的内容。 1.4 持续运营 > 模型微调 “模型微调”指的是直接使用微调(fine-tuning)的方法使用更多的领域数据来训练模型,包括 Embedding 模型和 LLM 模型。
第一章 风控模型简介 1.1 为什么要建模 1.2 什么是信用评分 1.3 常用的模型 1.4 概念解析:M0,M1,M2的定义 下一章预告 参考文献 第一章 风控模型简介 本系列文章为笔者对信贷风控领域建模的一些学习研究心得汇总 ,以及一些代码示例,尽量会将信贷风控领域的一些基本概念阐述明白。 1.3 常用的模型 业界常说的有A卡、B卡、C卡,A卡就是申请评分卡。 在你申请的时候就会站出来,决定放不放款,B卡,也就是贷中行为评分卡,监控你的信用状况,决定给不给你提额度,或者中不中断你的贷款,C卡就是贷后评分卡,一般有三种:账龄迁移模型、还款率模型和失联预警模型。 还款率模型:注意这个模型不是为了预测你还不还钱,而是预测未来经过催收动作后,还款的概率。
应对尽调效率瓶颈 贷款利率持续下行推动信贷市场下沉,对公贷前尽调工作量成倍增加。金融机构加速线上化、数字化和智能化转型过程中,对公信贷70%以上数据属于非结构化数据,严重依赖客户经理人工处理。 部署智能信贷助手 腾讯云基于混元通用大模型,通过大规模场景化微调与应用工程开发,推出大模型信贷助手解决方案。 ,整单数据处理准确率达94%(腾讯云项目数据) 某金融机构智能尽调实践 在跨境金融与产业金融项目中,该助手实现了企业合同、发票、货单等多源数据的自动提取与填报。 通过持续学习机制,模型在典型场景中的采纳率从微调前的70%-80%提升至90%。 技术领先性与适配能力 腾讯混元多模态大模型具备业界领先的超长文档处理能力,配套大模型训推一体平台(Ti-ONE)与智能体开发平台(TCADP)提供全流程支持。
通过这一平台,开发者能够利用文心大模型,针对自己的行业和应用场景,选择适合的开发方式,打造具有时代特征的产品。 我们只需要输入我们想创建的智能体名称,创建助手将根据你的描述,为智能体生成名称、简介、开场白、指令和引导示例等基础配置。 2.2 智能体Prompt配置 我们先简单来介绍一些Prompt智能体相关的一些知识: 智能体prompt指令是一种用于指导或激活智能体(如人工智能模型)执行特定任务的输入方式。 例如咱们的大模型开发教学智能体设定如下: 角色与目标 作为一个大模型相关的专家,你的主要任务是解答用户的代码问题,教授机器学习的基础知识,以及解释大模型算法。 在解释大模型算法时,需要清晰地阐述算法的原理、应用以及优缺点,以便用户能够全面了解。 若用户的问题超出你的知识范围或无法清晰解答,应诚实告知用户,并尝试提供相关的学习资源或建议。
LangSmith:大模型应用开发的得力助手大语言模型(LLM)快速发展,构建高效、可靠的 LLM 应用成为开发者核心需求;但开发过程中,缺乏对应用内部运行的洞察,导致调试和优化难度显著增加;LangSmith 更需了解其运行过程及输出产生的原因;以 LangChain 构建的复杂应用为例,执行流程可能是:用户提示词→链→工具调用→子链→LLM→输出→LLM→最终输出;无 LangSmith 时,该流程如同黑箱,调试难度大; RunnableSequence)是应用顶层调用;父节点(LLMChain)是具体链或代理;子节点展示父节点组件的执行细节 ——(PromptTemplate) 显示填充变量后的完整提示;(LLM Call) 记录模型调用的名称 实时监控至关重要;LangSmith 实时收集运行数据(Token 消耗、响应时间、错误率等),通过仪表盘可视化展示;开发者可依据实时数据,及时发现性能瓶颈与异常(如 Token 消耗异常增加,可能是无效请求或模型调用问题
好家伙,华为HarmonyOS接入大模型,智慧助手可以这么玩了吗? 总结来看,全新小艺不仅获得了最新的AIGC能力,还改善了手机语音助手过去经常被诟病的一些短板。 如没有记忆力、对话呆板、听不懂大白话等…… 这一切当然得益于大模型的加持,不过小艺具体是怎么做的? 加之原生HarmonyOS也使得优化现有API成为可能,通过这种反向适配,也能更好发挥大模型特长。 面向全场景、不局限于手机端 所以,为什么是华为能如此迅速将大模型能力部署到智慧助手上? 在底层基础研发的积累和攻关必不可少,不过还有一点值得关注—— 华为选择了从实际场景做切入,来确定该如何让大模型和智慧助手乃至整个操作系统做结合。 随着最新一轮AI趋势爆发,RLHF给大模型带来显著提升,产业落地的大门正式开启。 今年生成式AI趋势发生以来,诸多应用都选择接入大模型能力、内置智慧助手。
第二章:部署专属大模型信贷助手,构建一站式智能尽调闭环 针对上述痛点,腾讯云基于通用大模型底座(涵盖腾讯混元大模型及 DeepSeek R1 / V3 等),通过大规模场景化微调和应用工程开发,推出“腾讯大模型信贷助手 业务覆盖度:实现“识别+提取+分析”的一站式工作流,大模型能力覆盖了信贷经理 95% 的工作内容。 第三章:尽调报告生成周期压缩至1个工作日,人工审核采纳率达93% 通过引入大模型信贷助手,信贷尽调业务在效率与质量上实现了量化的显著提升,核心业务指标表现如下: 产能与效率释放:工作效率实现 10倍 的整体提升 第四章:深入跨境与产业金融场景,支撑超大篇幅招股书精准解析 腾讯大模型信贷助手已在多个复杂的金融与商业场景中落地,并展现出强大的复杂任务处理能力: 超长文档解析场景:在大模型应用厂商和互联网券商的企业落地应用中 第五章:突破多模态解析与幻觉控制瓶颈,实现模型可溯源与持续进化 大模型信贷助手能够实现上述业务价值,核心在于其底层的两大核心技术突破与四大产品工程优势: 底层技术突破: 多模态解析能力:突破文档长度、复杂版面及元素识别等技术瓶颈
p=26184 在此数据集(查看文末了解数据获取方式)中,我们必须预测信贷的违约支付,并找出哪些变量是违约支付的最强预测因子?以及不同人口统计学变量的类别,拖欠还款的概率如何变化? 如果将模型拟合到训练数据集上,则将隐式地最小化误差。拟合模型为训练数据集提供了良好的预测。然后,您可以在测试数据集上测试模型。如果模型在测试数据集上也预测良好,则您将更有信心。 因为测试数据集与训练数据集相似,但模型既不相同也不相同。这意味着该模型在真实意义上转移了预测或学习。 数据获取 在下面公众号后台回复“信贷数据”,可获取完整数据。 本文摘选《Python信贷风控模型:Adaboost,XGBoost,SGD, GBOOST, SVC,随机森林, KNN预测信贷违约支付》。
Manus AI已横空出世,它可不是普通的聊天机器人,而是一个真正的全能AI助手。它能够帮你从想法到落地,直接执行听起来是不是很酷?接下来,我们看几个官方的例子,带大家体验一下它到底有多强大。 如果你是数据分析师,Manus AI也能成为你的得力助手。它可以自动访问外部权威数据源,验证数据并编写代码进行数据分析和可视化。 如果你也想体验这个超强的AI助手,暂时恐怕还要等一等,因为现在服务器已经被挤爆了。 此外,最让我们自豪的是,Manus AI创始人为中国90后肖宏,92年出生,毕业于华中科技大学,是一位年轻的创业者。
今天我们提供一个基于本地大模型的AI学习助手,它能够在CPU上运行,并通过Gradio提供Web界面,主要功能包括:智能对话:用户可以通过文本与AI助手进行交流,获取学习上的帮助。 topic: str) -> Dict: """学习示例生成方法""" # 实现结构化内容生成我们首先需要明确LocalLearningAssistant类的核心作用:它负责加载大模型 with gr.Blocks(theme=gr.themes.Soft()) as demo: # 标题区域 gr.Markdown("# 大模型本地部署 编程助手2. 科学助手3. 数学助手4. 学习助手五、总结 这个项目成功实现了在消费级硬件上部署智能学习助手,基于Qwen1.5-1.8B大模型在CPU环境稳定运行。 ") as demo: gr.Markdown("# 大模型本地部署AI学习助手") gr.Markdown("基于本地大模型的智能学习助手 - 分类问题版本
最近帮客服部门落地了“客服对话质量智能评估助手”,总算解决了他们人工评估对话质量的低效难题。 这次我们基于JBoltAI做了低侵入式开发,搭建了能自动抓取客服对话、多维度评估质量并生成整改建议的助手,把质检效率和精准度都提了上来。 一、项目背景:传统客服对话质检的4大核心痛点我们公司客服团队有50+人,每天要处理上千条用户对话(覆盖文字、语音、在线聊天等渠道),传统的对话质量评估完全依赖人工质检,痛点突出到客服主管多次申请优化:评估效率极低 标准化评估维度构建:结合行业标准和公司客服管理要求,构建“态度友好度、问题解决率、话术规范性、响应及时性、合规性”5大核心维度,每个维度下设具体评估指标(如态度友好度包含“是否使用问候语、是否耐心解答、 五、项目总结与后续迭代方向这次开发客服对话质量评估助手的经历,让我深刻体会到“AI赋能客服质检”的核心价值——不是替代人工,而是弥补人工评估的效率低、主观性强、覆盖范围有限等短板,让质检工作更高效、更客观
CodeGeeX一款基于大模型全能的智能编程助手 1.是什么? CodeGeeX是智谱AI旗下的代码生成大模型,2022年9月发布第一代模型,以每半年更新一代模型的迭代速度不断进化,致力于探索大模型代码生成能力的上限。 基于模型打造的CodeGeeX智能编程助手,不仅支持代码补全、代码注释、代码修复、代码翻译等基础功能,还支持联网代码问答、代码解释器、检索增强等进阶实用功能。 CodeGeeX是一款基于大模型的智能编程助手,它可以实现代码的生成与补全、自动为代码添加注释、自动解释代码、自动编写单元测试、实现代码审查Code Review、自动修复代码fixbug、自动生成commit 目前CodeGeeX的个人用户数量已经超过100万,企业版本也已经广泛应用于科技、金融、医疗和制造等多个行业,在中国信通院组织的代码大模型首轮评估中获得当前最高评级,成为国内首批通过该项评估的大模型之一
TGW是Text-Generation-Webui项目的缩写,这是2023年随着ChatGPT的火爆浪潮中,让我们能搭配开源LLM模型,在本地搭建可对话智能助手的项目,就不用整体担心源头单位的朝令夕改所产生的风险 https://github.com/oobabooga/text-generation-webui 开源之后,至今已有近4万个星以及5000多个folks,是个十分非常热门的项目,也被视为是学习自制本地化大模型对话智能助手类型项目的入门应用 只要能把TGW玩得熟练,就能在这个基础上非常轻松地开发自己的有趣大模型应用。 已经为我们创建好多个可以直接下载并执行的docker镜像文件,如下图所示:现在执行以下最简单的指令试试看:$ jetson-containers run $(autotag text-generation-webui)会看到以下一大串的信息 那现在已经可以开始让TGW变成智能助手了吗?还不行,因为我们尚未提供合适的大语言模型来预支匹配,这是下一步骤需要操作的部分。
基于大模型的IT服务台智能助手能够自动处理常见问题、加速工单解决、优化用户体验、提升服务效率,成为现代IT服务管理的重要工具。 3.1 整体架构概述 基于大模型的IT服务台智能助手系统架构设计应遵循高可用性、可扩展性、安全性和可维护性等原则。 {insight}") 五、技术选型与实现方案 5.1 大模型选择与评估 选择合适的大模型是IT服务台智能助手成功实施的关键。 IT服务台领域数据上微调的模型 开源轻量级模型:如Alpaca、Vicuna等适合本地部署的轻量级模型 5.2 系统组件技术选型 除了大模型外,IT服务台智能助手还需要选择合适的系统组件技术: 前端技术 关注安全和隐私保护:在实施过程中,始终重视数据安全和隐私保护 10.3 未来展望 基于大模型的IT服务台智能助手的未来发展前景广阔,将为IT服务管理带来更多的创新和价值: 技术不断成熟:随着大模型技术的不断发展和成熟