首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 上下文AI与搜索平台集成以扩展精准上下文工程

    生成式AI革命已持续三年,但AI的有效性受到“上下文差距”的限制。 没有正确的上下文AI模型难以保证相关性,常常产生不准确或“幻觉”的响应。上下文工程旨在解决一个根本问题:在正确的时间以正确的格式提供正确的信息,使AI代理能够执行复杂的、特定于用例的任务。 如今,我们很高兴地宣布,Contextual AI正式加入Elastic AI生态系统——这是一套与Elasticsearch上下文工程平台和向量数据库集成的全面AI技术和工具。 其开放的、可用于生产的架构使其成为大规模构建可靠、上下文驱动的AI应用的理想基础。 通过将Contextual AI用于构建专业RAG代理的端到端上下文工程平台,与某中心的强大向量数据库和统一的Elasticsearch平台相结合,我们正在解决AI开发中最紧迫的挑战:上下文相关性和运营规模

    17810编辑于 2025-12-20
  • 来自专栏啥都有的专栏

    rpc系列2-提供上下文RpcContext

    实现要求:提供RPC上下文,客户端可以透传数据给服务端。 实现如下: /** * rpc上下文 * * @author wqx * */ public class RpcContext { private static ThreadLocal private Object[] args; //参数 private Map<String,Object> context; RpcBuilder中在发送请求前,需要从当前上下文中获取数据 RpcRequest rpcRequest = (RpcRequest)req; //关联客户端传来的上下文数据 } 测试: 业务接口增加测试方法: public interface UserService { /** * 上下文测试,透明传输数据 */ public

    96720编辑于 2022-05-12
  • 来自专栏圣杰的专栏

    .NET+AI | MEAI | 上下文压缩(7)

    Chat Reducer:让 AI 对话突破上下文限制 一句话简介 Microsoft.Extensions.AI 的 Chat Reducer 通过智能压缩策略,在保持对话质量的前提下,有效控制上下文长度 ) 2. SummarizingChatReducer(摘要压缩器) 利用 AI 自动生成摘要压缩历史对话。 核心特性: 超过阈值时自动调用 AI 生成摘要 摘要存储在 AdditionalProperties 中 渐进式压缩(新摘要包含旧摘要) 保留完整语义上下文 适用场景: 医疗咨询(完整病史重要) 2.

    22210编辑于 2025-12-28
  • 来自专栏Java

    Koa2 中的上下文(context)是什么?如何使用上下文对象?

    Koa2 中的上下文(context)是什么?如何使用上下文对象? 在Koa2中,上下文(context)是一个封装了请求和响应的对象,它提供了许多有用的方法和属性,用于处理HTTP请求和响应。 上下文对象是Koa中间件函数的第一个参数,通常被命名为ctx。通过使用上下文对象,我们可以访问到请求的信息、响应的信息以及一些常用的方法。 这些属性和方法都是通过上下文对象提供的。 另外,上下文对象还提供了其他一些常用的方法,例如ctx.request用于访问请求对象,ctx.response用于访问响应对象,ctx.cookies用于处理Cookie等。 上下文对象是Koa2中非常重要的一个概念,它提供了许多方便的方法和属性,用于处理HTTP请求和响应。通过使用上下文对象,我们可以更加灵活和方便地编写Koa2应用程序。

    45200编辑于 2025-01-21
  • 来自专栏phodal

    AI 智能体交互语言 DevIns:构建上下文感知的 AI 驱动编程

    在 AutoDev 1.7.2 中,我们开始构建一个新的 AI Agent 语言:DevIns,即 Development Instruction。 PS:其实原来是叫 DevIn,但是无奈 Devin AI 项目发布了 demo 视频,所以改名为 DevIns。 在 AutoDev 项目中,我们通过构建上下文感知与自定义能力,来实现对于软件开发任务的智能辅助,如自动测试生成与运行、UI 自动生成等。 你可以将你的需求描述成自然语言: 解释代码 /file:src/main/java/com/example/Controller.java 而后,AutoDev 将会结合上下文,并将其编译成对应的指令文本 而当语言接近发布的时候, 在社交媒体上更火的 Devin AI 项目也刚好发布了 demo 视频。 WTF????

    45810编辑于 2024-03-25
  • VFP AI 插件:超长上下文的识别(一)

    VFP AI 插件在访问大模型时,有一个上下文长度的问题。 对于 DeepSeek 而言,其大小为 128K(=128000 token)。 VFP AI 插件 2025.12.15 版,初步实现超长上下文的处理: 所分析 VCX 类库,使用类浏览器转换出的 prg 格式文件,文件体积为 400+KB,共 10329 行,超过模型最大上下文的最大限制

    12210编辑于 2026-03-10
  • 来自专栏我和未来有约会

    2章 对象激活上下文-对象激活

    特性和其Default属性把默认的构造字符串添加到配置元数据中.在类内部你必须重写基类SericedComponent的Construct方法.当每次创建对象时,这种方法会被COM+基础结构调用. 2. string title, DateTime startDate, string attendee)         {             writer.WriteLine("{0};{1};{2}

    61790发布于 2018-01-16
  • 你是什么,你的 AI 就是什么,你的上下文是怎样的,你的 AI 上下文就是怎样的

    这不仅是角色扮演,更是一种思维同频: 当你以老板的上下文跟 ta 讲: 谈的是护城河、ROI、资源配置和宏观战略,ta 瞬间就是另一位深谋远虑的合伙人,与你推演商业棋局; 当你以生物学家的上下文跟 ta 在这个过程中,AI 并不是在凭空创造,而是在「共鸣」。 但这往往不是因为 AI 不够聪明,而是因为站在镜子前的人,并没有给出足够清晰的影像。 PART.04 你是谁,便遇见谁 使用 AI 到最后,你会发现这其实是一场向内的修行。 限制 AI 输出上限的,往往不是算力,也不是显卡,而是: 你对问题本质的理解程度; 你构建专业语境的能力; 你自身知识体系的边界。 你是什么,你的 AI 就是什么。

    17110编辑于 2026-01-27
  • VFP AI 插件:超长上下文的识别(二)

    距离上一篇VFP AI 插件:超长上下文的识别(一)有些时间了。经过不断的试错和优化,终于完成了 VFP AI 插件的超长上下的识别。将时间从数小时压缩至最多几十分钟。 也意味着,为使用 VFP AI 插件进行项目分析扫清了主要的障碍。 凤凰涅槃,浴火重生!

    10010编辑于 2026-03-10
  • Go在AI对话上下文压缩处理上的实践

    这是因为大模型有上下文长度限制,对话越长,历史消息越多,就越容易超限。结合我的理解,这篇文章分享一下如何实现上下文压缩,让你的 AI 应用既能"记住"关键信息,又能节省成本。 为什么需要上下文压缩? 面对上下文压缩,我们有三种主流策略: 摘要压缩:让 AI 把历史对话总结成一段摘要。适合长对话场景,比如客服机器人、知识问答。优点是信息损失小,缺点是需要额外 API 调用。 也可以根据 Token 数量判断,超过总上下文的 70% 就压缩。 注意事项: 摘要会丢失细节信息。如果用户问"我刚才说的那个餐厅叫什么",AI 可能答不上来。 踩坑指南 Token 估算要提前做 中文大约 1.5-2 个字一个 Token,英文约 4 个字符一个 Token。压缩前先估算当前上下文大小,别等到报错了才处理。 可以设计一个机制,当 AI 不确定时主动追问:"抱歉,能再告诉我一次您的联系方式吗?" 写在最后 今天我们介绍了三种 AI 对话上下文压缩策略: 摘要压缩:让 AI 总结历史,保留语义完整性。

    31010编辑于 2026-03-02
  • 来自专栏设计模式

    AI 智能体上下文工程 4 大实用策略解析

    ):上下文内容过多超出模型训练适应范围 - 上下文混淆(Context Confusion):冗余上下文影响响应结果 - 上下文冲突(Context Clash):上下文各部分信息相互矛盾 工具调用产生的上下文会在智能体的多轮交互中不断累积 鉴于此,Cognition公司强调了上下文工程的重要性: “上下文工程”……实际上是构建AI智能体的工程师的首要工作。 2. 选择上下文(Select Context) 选择上下文指将外部信息拉入上下文窗口,以辅助智能体执行任务。 便签本选择 从便签本中选择上下文的机制取决于便签本的实现方式。 在AI工程师世界博览会上,西蒙·威利森(Simon Willison)分享了一个选择失误的例子:ChatGPT从记忆中获取了他的位置信息,并意外地将其注入到用户请求生成的图像中。 选择上下文——将信息拉入上下文窗口,辅助智能体执行任务。 压缩上下文——仅保留执行任务所需的tokens。 隔离上下文——拆分上下文,以帮助智能体执行任务。

    86111编辑于 2025-10-20
  • 来自专栏DotNet NB && CloudNative

    .NET + AI | 可控广播上下文相关的函数列表

    上下文匹配搜索:每次发起会话时,根据上下文信息在向量存储中搜索最匹配的函数。 模型调用:将匹配的函数传递给语言模型,用于生成更准确的响应。 Microsoft.SemanticKernel.Agents.Core,*-*" #r "nuget:Microsoft.SemanticKernel.Connectors.InMemory,*-*" #r "nuget:Microsoft.Extensions.AI 2. 初始化 Kernel 通过 Kernel 实现 AI 服务的初始化,包括注册聊天模型和嵌入生成器: var builder = Kernel.CreateBuilder(); // 添加 Azure 代码如下: using Microsoft.Extensions.AI; ///

    /// 返回属于不同分类的函数列表。

    18800编辑于 2025-07-04
  • 来自专栏又见苍岚

    上下文

    所以业务上下文变更需要慎之又慎。 运行程序上下文 大家应该对一句话有印象:(进程/线程)上下文切换开销很大。这里的上下文一般指的就是运行程序的上下文。 这里的通信问题就是进程上下文切换开销大的缘故。 方法/类所在的上下文(作用域) 方法上下文可以理解为方法所在的作用域。类亦如此。 还有一些比较特殊的概念实际上也是和方法上下文相关。 比如worker语言特性中,需要监听message事件,这实质上,就是在当前上下文监听另一个上下文的状态。再比如回调函数。实际上是因为上下文变更后,对原有上下文访问的一种编程手段。 从这个角度看,闭包实质上也是对上下文的一种操作手段:返回一个函数,该函数在当前上下文可以操作闭包上的上下文。 执行上下文:当函数或方法被调用时,它会创建一个执行上下文,这个上下文包括了局部变量、参数、返回地址等信息。在JavaScript等语言中,执行上下文还包括this的值。

    72110编辑于 2024-07-31
  • 来自专栏AI uTools

    Autopilot:全球首个基于上下文引擎的 AI 办公助手

    Context Autopilot:全球首个上下文引擎驱动的 AI 办公助手 Context Autopilot 是由 Context 公司推出的一款 AI 办公助手,旨在通过先进的人工智能技术提升工作效率 上下文引擎使用:根据上下文推理与公司需求对齐,并能回忆与任务相关的所有信息。 主要功能特点 AI 驱动的操作系统: 基于 大语言模型(LLM),成为用户智能助手,处理并自动化工作任务。 关键技术 上下文引擎和记忆堆栈 上下文引擎:执行深度推理,挖掘信息中的联系,提供对知识体系的深入理解。 记忆堆栈:具有“状态保持”能力,支持动态上下文处理,使 Autopilot 能够自我优化。 推理与长上下文处理(Long Context Handling) 在长时间任务中保持任务的上下文一致性,优化推理能力,处理复杂任务。

    1.5K10编辑于 2024-11-18
  • 来自专栏iOS逆向与安全

    《Quartz 2D编程指南》之图形上下文的作用、分类、状态的保持、恢复、 上下文的矩阵操作(修改上下文的形变)

    NSGraphicsContext class and are used to represent the following drawing destinations: 1、Windows (and their views) 2、 、window) 相同的一套绘图序列,指定不同的Graphics Context,就可将相同的图像绘制到不同的目标上 这里写图片描述 II、drawing destination(分类) Quartz2D IV、 图形上下文栈的操作:状态的保持、恢复 The current graphics state can be saved on a stack that is maintained by the current 将当前的上下文copy一份,保存到栈顶(那个栈叫做”图形上下文栈”)

    53010发布于 2021-04-15
  • 来自专栏AngelNI

    Word2Vec:基于上下文的分布式表达

    Word2Vec:基于上下文的分布式表达 Word2Vec是语言模型中的一种,它是从大量文本预料中以无监督方式学习语义知识的模型,被广泛地应用于自然语言处理中。 Word2Vec是用来生成词向量的工具,而词向量与语言模型有着密切的关系。 目前Word2Vec有两种最常见的算法,分别是CBOM(Continuous Bag-of-Words)算法和Skip-Gram算法。 CBOM与Skip-Gram的区别 Skip-Gram:将当前词作为输入,其对应的上下文最为输出,训练神经网络。训练的目标是网络的输出(即预测的上下文)与其实际的上下文越接近越好。 参考资料: 【1】《深度学习模型及应用详解》 【2】https://www.cnblogs.com/leebxo/p/12929684.html

    1.3K60发布于 2020-07-17
  • AI大模型新资讯】从信息蜂房到上下文工程

    2)ROLLROLL (Reinforcement Learning Optmization for Large-scale Learning)是一个高效且用户友好的强化学习库,专为不同类型用户设计, (3)AI游戏引擎不同于传统游戏引擎,AI游戏引擎是玩家想象力的“放大器”,任何人可以随心所欲“创造”游戏!AI引擎的崛起带动着生成式游戏的兴起与发展。 (4)质陪解决方案由中关村科金得助智能开发,创造性地融合成熟的AI大模型质检与陪练系统,推出了全面高效的“质陪解决方案”。智能质检采用大小模型结合的方式,对销售人员的销售行为进行全方位监测和分析。 (5)上下文工程上下文工程指通过为任务提供完整的背景信息,让大模型能够合理解决问题。在AI智能体的兴起发展过程中,上下文工程才是决定大多数AI智能体成败的关键而并非模型。 上下文工程致力于设计和构建动态系统而并非字符串,这些系统在恰当的时机提供信息和工具,从而让LLM拥有完成任务所需的一切。

    14620编辑于 2025-07-15
  • 来自专栏AI大模型应用开发炼丹房

    揭秘上下文工程+MCP:打造高效AI智能体的秘诀

    大模型其实根本不用懂 模型上下文协议(MCP)如今已成为构建AI智能体时“工具调用”的标准配置。但很多人误解了一点:你的大语言模型(LLM)并不需要理解MCP是什么。 如果你对上下文工程不是很清晰,我之前也整理过关于Agent上下文工程的工作原理,建议粉丝朋友自行查阅,以便更好的理解本文的分享内容:《图解Agent上下文工程,小白都能看懂》MCP 的作用,其实是帮助AI AI回复(可能包含工具调用请求)2. 用户问题(如“旧金山天气如何?”)2. 若需调用工具:标注工具ID、名称及参数3. 三、MCP:开发者的“工具万能接口” 模型上下文协议(MCP)的本质,是一种标准化方法,用于帮助AI智能体连接多种数据源,包括工具、提示语、资源、示例等。 MCP服务端提供“MCP_get_weather”工具,经客户端转接2. 模型生成“调用get_weather,参数San Jose, CA”2. 模型接收到工具定义,生成相同指令3.

    80251编辑于 2025-09-30
  • 来自专栏菩提树下的杨过

    spring-ai 学习系列(8)-上下文记忆-多轮对话

    \n\n不过,可能题目是在某种特定的上下文中,比如在数学问题中,或者可能题目本身存在一些陷阱。比如,有时候变量可能有不同的含义,或者在某些语言中,变量名可能与实际值不一致? spring-ai就是这么做的,下面演示最基本的In Memory模式(即:保存到本机内存中) 一、添加pom依赖 1 <dependency> 2 <groupId 接口 二个版本的方法签名不一样,导致这2个版本混用时,运行时会报错,希望将来1.1.0出来后,会统一。 当前新问题,扔到聊天上下文中 chatMemory.add(conversationId, new UserMessage(prompt)); // 2. invite_code=2ytpx5195a2oc

    95510编辑于 2025-08-22
  • 来自专栏量子位

    迁移学习让AI更好地理解上下文:Salesforce新论文

    理解上下文,就是一个非常适合迁移学习的问题。 Learned in Translation 我们所能想到的大部分NLP任务,都有“理解上下文”的需求。 word2vec和GloVe生成的词向量,与在自然语言中经常与这个词共现的词相关,其中word2vec模型会根据输入词来预测周围的相关词语,而GloVe在此基础上,还会统计两个词共同出现的频率。 在一个NLP任务中使用word2vec和GloVe训练的词向量,比随机初始化的词向量效果要好,但是还有改进的空间: 模型需要知道怎样使用这些词向量,也就是如何把它们置于上下文之中。 结论 简单概括起来,这项研究就是说,让AI学一学翻译,能帮它更好地理解语言,在分类、问答等等其他NLP任务上都会有更好的表现。? 相关链接 博客文章: https://einstein.ai/research/learned-in-translation-contextualized-word-vectors 论文: Bryan

    1.3K40发布于 2018-03-28
领券