首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏大模型

    04-LLM与MCP集成实践

    04-LLM与MCP集成实践概述在前三篇文章中,我们分别介绍了MCP协议、服务器开发和客户端开发。 本文将深入探讨如何将MCP工具集成到大语言模型(LLM)中,使用LangGraph构建智能代理应用,实现自动化的工具调用和状态管理。 12*8=96User:计算圆周率乘以2AI:我来帮你计算圆周率乘以2。 __name__}took{duration:.2f}s")returnresultreturnwrapper总结本文详细介绍了如何将MCP工具集成到LangGraph中,包括:LangGraph基础概念和架构状态定义和节点实现工具调用和消息过滤调试功能和错误处理性能优化和最佳实践在下一篇 参考资源LangGraph官方文档LangChainMCPAdaptersDeepSeekAPI文档文章标签展开代码语言:TXTAI代码解释LangGraph,LLM集成,MCP集成,智能代理,工具调用

    14710编辑于 2026-02-03
  • 来自专栏DeepHub IMBA

    LLM-Client一个轻量级的LLM集成工具

    所以这时候LangChain就解决了这个问题,LLM集成工具为将不同的语言模型集成到您的项目中提供了一种简化的方法。抽象了与每个LLM相关的复杂性和细微差别。 我这里又发现了一个刚刚发布不久的集成工具LLM-Client就出现了,本文将深入研究LLM -client和LangChain的特性、优势和注意事项。 而LLM-Client是专门为大型语言模型(llm)集成而设计的。它用户友好的界面,专注于消除集成复杂性为开发人员提供了无缝的体验。 LangChain LangChain庞大的社区是一个显著的优势。 LLM-Client llm-client提供了一个带有标准化参数的包装器,使开发人员能够绕过复杂的设置或不一致的配置。该工具专为与llm无缝集成而设计,调用起来更简单。 (text, n=2, best_of=2) llm_client.embedding(text) LangChain和LLM-Client比较 这里有一个简单的列表,这个列表是LLM-Client的开发人员提供的所以仅供参考

    67410编辑于 2023-08-30
  • 来自专栏charlieroro

    矢量数据库与LLM集成:实践指南

    矢量数据库与LLM集成:实践指南 本文将了解到什么是矢量数据库,以及如何与LLMs进行集成。通过LLMs和向量数据库的结合,可以节省微调带来的开销和时间。 本文给出了如何使用向量数据库构建一个LLM,并改进LLM对该流程的使用。我们将会看到二者的结合是如何让LLMs更加准确可靠(特别针对特定主题)。 用向量数据库丰富LLM的上下文 像Facebook的 LLama2 或 TIIUAE的 Falcon大语言模型具有先进的人工智能和类人类的文本生成能力,但由于它们是基于广泛、通用的数据集进行训练的,因此缺乏对特定上下文的处理能力 使用Falcon-7B 和 ChromaDB构建一个封闭式问题机器人 本章中,我们将介绍如何使用向量数据库来构建一个LLM,是使用的模型是一个封闭式问题机器人(Closed Q&A bot),该机器人使用一组集成的技术组件来有效解答与科学相关的问题 其友好的Python设置增强了对我们项目的吸引力,简化了与我们工作流程的集成。更多参见Chroma DB 文档。

    75510编辑于 2024-03-16
  • 来自专栏机器学习炼丹术

    LLM入门2 | 羊驼AIpaca | Stanford

    <<大型语言模型LLM>> LLM入门1 | 初见LLaMA | MetaAI 附录 self-instruct self-instruct seed set AIpaca: A strong, Replicable The oatmeal banana protein shake may contain 1/2 cup oatmeal, 60 grams whey protein powder, 1/2 medium >> alphaFold2 | 解决问题及背景(一) alphaFold2 | 模型框架搭建(二) alphaFold2 | 模型细节之特征提取(三)‍ alphaFold2 | 模型细节之Evoformer (IS) 生成专题2 | 图像生成评价指标FID 生成专题3 | StyleGAN2对AdaIN的修正 生成专题4 | StyleGAN2的其他改进 <<蛋白质分子结构相关>> NLP | 简单学习一下 eager模式与求导 扩展之Tensorflow2.0 | 19 TF2模型的存储与载入 扩展之Tensorflow2.0 | 18 TF2构建自定义模型 扩展之Tensorflow2.0 | 17

    88520编辑于 2023-09-02
  • Cline交互协议(2):LLM交互流程

    下面我们先分析下日志,最后介绍下LLM代理如何编写和配置。 Here's the structure:\n\n<tool_name>\n<parameter1_name>value1</parameter1_name>\n<parameter2_name>value2 </parameter2_name>\n... MCP 工具信息),和用户提示词,用户提示词除了包含task还包括环境详情environment_details 2LLM返回响应 3,Cline调用MCP工具 4, MCP server返回天气查询结果 返回总结后的结果 7,由于返回的格式不符合要求,Cline请求LLM按照XML格式返回结果 8,LLM返回结果内容 至此完整的交互流程介绍完毕。

    13410编辑于 2026-03-18
  • 来自专栏AI SPPECH

    32_语音到文本:Whisper与LLM集成_深度解析

    这表明Whisper技术还在持续演进,为与LLM的更深度集成奠定了基础。 第2章:LLM技术基础与语音理解能力 2.1 大语言模型的语音理解基础 大语言模型(LLM)在语音理解领域展现出了巨大潜力。 第3章:Whisper与LLM集成的技术架构 3.1 集成架构设计原则 Whisper与LLM集成需要遵循一系列关键设计原则,以确保系统的稳定性、性能和用户体验: 模块化设计:将音频处理、语音识别、 3.2 集成系统的核心组件 一个完整的Whisper与LLM集成系统通常包含以下核心组件: 音频采集与预处理模块:负责从麦克风、音频文件或流媒体获取音频数据,并进行降噪、归一化等预处理。 第5章:2025年Whisper与LLM集成的最新进展 5.1 WhisperLiveKit:全栈语音处理解决方案 2025年最引人注目的Whisper与LLM集成项目之一是WhisperLiveKit 第6章:Whisper与LLM集成的应用场景 6.1 语音购物助手 在电子商务领域,Whisper与LLM集成催生了新一代语音购物体验: 全流程语音交互:实现从"语音搜索-商品推荐-下单支付"的全流程语音购物体验

    66410编辑于 2025-11-13
  • 来自专栏DeepHub IMBA

    LLM-Blender:大语言模型也可以进行集成学习

    最近在看arxiv的时候发现了一个有意思的框架:LLM-Blender,它可以使用Ensemble 的方法来对大语言模型进行集成。 官方介绍如下:LLM-Blender是一个集成框架,可以通过利用多个开源大型语言模型(llm)的不同优势来获得始终如一的卓越性能。 LLM集成 我们都知道集成学习是一种机器学习方法,旨在提高预测模型的性能和鲁棒性。它通过将多个不同的学习器(如决策树、神经网络等)结合成一个整体,来取得比单个学习器更好的预测效果。 收集N个模型的输出,并以总共N(N-1)/2种方式进行配对(从总共N个项目中选择2个项目的组合次数)。然后根据以下条件对结果进行评估:给定输入提示,哪个候选人的输出更好。 基准测试 论文介绍了一个名为mixdirective的新数据集,用于对llm在指令跟随任务中的集成模型进行基准测试。

    57830编辑于 2023-08-30
  • 来自专栏新智元

    11个LLM一起上,性能爆炸提升!AI2联合USC开源LLM-Blender集成学习框架:先排序再融合|ACL 2023

    有没有可能通过集成学习来综合诸多开源的「弱」LLM的能力,来使得他们整体成为一个「强」LLM呢? AI2,USC,和浙大的研究员由此提出了一个集成学习框架,LLM-Blender,它通过排序和融合来对各个LLM的输出进行集成,从而达到了较为稳定的提升。 2. 一个新的指令数据集MixInstruct。其中的每一条指令都包含了来自Vicuna等数十个当前流行的开源LLMs的回答,用来训练与评估集成学习框架LLM-Blender。 3. 首次证明了集成学习在LLM社区的显著效果与其应用价值。 4. 开源LLM-Blender工具包,方便LLM社区研究人员使用与进一步研究。 Yuchen Lin 林禹臣(AI2)现任Allen Institute for AI(AI2)研究员。他本科毕业于上海交通大学IEEE试点班(2018),博士毕业于USC南加州大学 (2022)。

    55110编辑于 2023-08-07
  • 来自专栏架构驿站

    一文读懂 LLaMa 2 开源 LLM

    — 01 — 什么是 LLaMa 2 ? LLaMa 2 是由 Meta 公司开发的开源大型语言模型(LLM)。 LLaMa 2 参数模型示意图 LLaMa 2 属于 LLM 系列,类似于 GPT-3 和 PaLM 2。 LLaMa 2 与其他 LLM 在任务上的表现对比 2、数据容量丰富‍‍ 在扩展训练数据方面,LLaMa 2 的训练数据量几乎是 v1 的两倍,总计达到了令人惊叹的 2 万亿个 Tokens 同时,LLaMa 2 的开放许可政策为商业用户提供了更大的自由度和灵活性。个人可以将其应用于创业项目或个人商业活动,而组织则可以将其集成到产品和服务中,以满足不同行业和市场的需求。 这些模型代表了自然语言处理领域的重大发展,LLaMA 2 与 GPT-4 都是功能强大且多功能的 LLM,可以执行广泛的任务和领域。

    2.2K31编辑于 2023-12-04
  • LLM实现text2SQL实战总结

    LLM在组织内部应用的一类重要场景就是利用LLM的NL2SQL能力,简化用户对数据库的访问。本文主要介绍如何使用LLM生成SQL语句,不涉及到如何训练提升LLM的SQL生成能力。 所以,这个基础的NL2SQL的准确率问题是由选中的LLM模型保障的,而我们会通过一些设计原则优化LLM提示来提升这种SQL生成的准确率问题,从而确保用户的使用体验。 当然,当我们在最后评价这个NL2SQL应用的效果时,可以用一个预先准备好的测试集对系统进行测试,确认系统的准确率是否满足使用要求。 在网络上我们能够看到很多用来训练模型NL2SQL能力的训练数据,这些数据给出的数据结构描述往往都比较简单。这可能会误导一些希望利用LLM生成SQL的使用者的工程方案。 因此告诉LLM时间字段的格式,可以帮助LLM提高生成SQL语句的正确率。如果可以,尽量描述出数据值的格式,增强LLM对字段含义的理解。

    61511编辑于 2025-04-15
  • 从0开始训练自己的LLM2

    其核心优势在于并行计算和长距离依赖捕捉,成为大语言模型(LLM)的基石。而注意力机制是基石的基石。核心组件包括查询(Query)、键(Key)、值(Value)三个权重矩阵。 values return context_vec d_in = inputs.shape[1] # the input embedding size, d=3 d_out = 2 # In practice, this is not a problem since the LLM (chapters 4-7) ensures that inputs # In practice, this is not a problem since the LLM (chapters 4-7) ensures that inputs queries = queries.transpose(1, 2) values = values.transpose(1, 2) # Compute

    10110编辑于 2026-03-18
  • 来自专栏MyTechnology

    SpringBoot集成Swagger2

    简单说就是Swagger2可以很方便帮我们生成RESTful API文档,提高协同开发效率。 SpringBoot工程,添加相关的依赖 <dependency> <groupId>io.springfox</groupId> <artifactId>springfox-swagger2< @Configuration @EnableSwagger2 public class SwaggerConfig { @Bean public Docket createRestApi 到这里集成就基本完毕。 下面进行CRUD的测试。 我们去建一个User类,用来测试使用。 new User(2,"乐心湖2",182)); userMap.put(3,new User(3,"乐心湖3",183)); } @Override public

    49910发布于 2020-07-31
  • 来自专栏Android小知识

    Android集成Dagger2

    Dagger2是一种依赖注入框架,用来帮我们进行类初始化的工作,通常配合MVP架构模式使用。 classpath 'com.neenbedankt.gradle.plugins:android-apt:1.8' //添加apt命令 在Moudle的build.gradle中添加dagger2的依赖 //dagger2 apt 'com.google.dagger:dagger-compiler:2.0.2' //指定注解处理器 compile 'com.google.dagger:dagger dagger2可以分为三部分,即Moudle、Component、Container,简单来讲我们可以把Container比作自己,把Component比作送餐员,把Moudle比作餐厅。 好了,到这里Dagger2基本就讲完了,下一篇可能会写个小例子给大家看看。 毕竟我是刚刚开始用Dagger2,所以如果哪里写的有问题,欢迎大家前来批评指正,我会进行修改。

    88150发布于 2019-08-14
  • 来自专栏算法与编程之美

    SpringBoot集成Swagger2

    importorg.springframework.context.annotation.Configuration; importspringfox.documentation.swagger2.annotations.EnableSwagger2 ; @Configuration   //配置类 @EnableSwagger2  //启动Swagger2的自动配置1 引言 什么是Swagger: Swagger是一个规范和完整的框架,用于生成、描述 2 问题 如今前后端通过API进行交互,前后端相对独立且松耦合。会产生前后端集成,前端或者后端无法做到“及时协商,尽早解决”,最终导致问题集中爆发。 annotations.EnableSwagger2; @Configuration //配置类 @EnableSwagger2 //启动Swagger2的自动配置 问题: 启动项目后发现,项目抛出以下错误 运行: 访问http://localhost:8080/swagger-ui/index.html,即可以看到Swagger页面 4 结语 本文对SpringBoot集成Swagger2做了简单的介绍

    51820编辑于 2021-12-21
  • 来自专栏Nicky's blog

    SpringBoot集成Swagger2

    而Swagger UI就是这么一款很实用的在线工具 本博客介绍如何在公司或者自己的电脑上按照Swagger UI,本博客介绍一下怎么集成到SpringBoot项目中,Swagger可以安装在线使用,安装教程可以参考我之前的博客 ,安装在linux系统的,https://smilenicky.blog.csdn.net/article/details/70276327 SpringBoot集成Swagger2 然后介绍一下怎么集成到 annotations.EnableSwagger2; /** *

     *  Swagger2配置类
     * 
    * * @author nicky *
     * 修改记录 )
                    .description("SpringBoot集成Swagger2构建RESTful API接口")
                    .termsOfServiceUrl 可以看到接口的详情信息,Swagger2相当于一个在线文档
     
    ?

    66520发布于 2019-06-14
  • 来自专栏流媒体

    SpringBoot集成Swagger2

    文件的方法,参数和模型紧密集成到服务器端的代码,允许API来始终保持同步。Swagger 让部署管理和使用功能强大的API从未如此简单. 添加库 <! --swagger集成,接口测试--> <dependency> <groupId>io.springfox</groupId> <artifactId <dependency> <groupId>io.springfox</groupId> <artifactId>springfox-swagger2< */ @Bean public Docket testApi() { return new Docket(DocumentationType.SWAGGER_2) swagger2.png ? swagger3.png ? swagger4.png ​

    53630发布于 2018-08-23
  • 来自专栏JokerDJ

    Springboot集成Swagger2

    Springboot集成Swagger2 Swagger2简介 1.随项目自动生成强大RESTful API文档,减少工作量 2.API文档与代码整合在一起,便于同步更新API说明 3.页面测试功能来调试每个 RESTful API springboot集成Swagger2步骤 1. 新建一个Springboot项目 2. <dependency> <groupId>io.springfox</groupId> <artifactId>springfox-swagger2< 编写swagger的配置类 写上注解 @Configuration @EnableSwagger2 @Configuration @EnableSwagger2 public class SwaggerConfig

    40210编辑于 2023-11-27
  • 来自专栏机器学习/数据可视化

    集成学习2——sklearn实现

    X_train, y_train) dt_clf.score(X_test, y_test) 0.84 三种模型的预测 y_predict1 = log_clf.predict(X_test) y_predict2 是二分类问题,只有+1,0 # 如果三个结果的平均值大于等于3,则至少有两个结果1,说明y应该是1,少数服从多数原则 y_predict = np.array((y_predict1 + y_predict2 + y_predict3)>=2, dtype="int") y_predict[:10] array([1, 1, 0, 0, 0, 1, 0, 1, 0, 1]) from sklearn.metrics multi_class='warn', n_jobs=None, penalty='l2' min_samples_leaf=1, min_samples_split=2,

    43220发布于 2021-03-02
  • 可定制NLP工具包spaCy与LLM集成技术解析

    ]}}, {"LOWER": "received"}, {"POS": "NOUN"}]matcher.add("TreatmentGroup", [pattern])大语言模型集成方案多后端支持 TrialSummaryTask:def parse_responses(self, docs, responses): for doc, response in zip(docs, responses): # 将LLM 自由文本输出转换为结构化实体 matcher.add("Patient\_Group", patterns) doc.ents = filter\_spans(matches)生产部署策略混合架构设计:LLM 快 | 高 || 监督学习模型 | 高 | 中 | 中 || 大语言模型 | 极高 | 慢 | 低 |进阶应用场景LLM

    17310编辑于 2025-08-11
  • 来自专栏机器之心

    用RLHF 2%的算力让LLM停止有害输出,字节提出LLM遗忘学习

    但对齐过程往往受到 (1) 数据收集;(2) 计算资源的限制。 字节跳动提出让 LLM 进行遗忘学习的方法来进行对齐。 本文研究如何在 LLM 上进行 “遗忘” 操作,即忘记有害行为或遗忘学习(Machine Unlearning),作者展示了遗忘学习在三种 LLM 对齐场景上取得的明显效果:(1) 删除有害输出;(2) (2) LLM 使用侵权数据训练后,在作者要求下,成功删除数据,且考虑到成本因素不能重训 LLM;(3) LLM 成功忘记 “幻觉”。 整体损失反向提升了有害样本的损失,即让 LLM “遗忘” 有害样本。 第二项损失为随机误配,强制 LLM 在有害提示上预测无关回复。类似于分类里的标签平滑(label smoothing [2])。 表二 图四显示了计算时间的比较,本方法只需 RLHF 2% 的计算时间。 图四 尽管只有负样本,遗忘学习的方法仍能达到和 RLHF 相似的无害率,而且只使用 2% 的算力。

    55321编辑于 2023-12-14
领券