首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏归思君的技术博客

    从 ECMAScript 6 角度谈谈执行上下文

    ,用ES6规范解读的比较少,所以想从ES6的角度看一下执行上下文。 下面我尝试用ECMAScript 6规范文档,来聊聊执行上下文,文章主要从这几个方面介绍: ES6规范中的词法环境 ES6规范中定义的执行上下文结构 从ES6规范看实际代码的执行流程 一、 什么是执行上下文 下面根据上下文中的抽象方法,来看看执行上下文中的this值是怎样变化的: 6. 从ES6规范我们知道: 执行上下文栈是用来跟踪执行上下文的,当前处于栈顶的是正在运行的执行上下文 调用其他关联的可执行代码时,会创建一个新的执行上下文,并将这个新的执行上下文压入栈顶 借助一个例子来说明 第四步:执行完a()后,将a()函数执行上下文出栈: 第五步:执行完b()后,将b()函数执行上下文出栈,最后只留下全局执行上下文 五、从 ECMAScript6 角度看代码的执行流程 代码的执行主要分为两个阶段

    40010编辑于 2023-12-22
  • 来自专栏机器学习与统计学

    上下文工程比提示词工程更重要,6上下文管理策略

    大家好,我是Ai学习的老章 关于大模型中的上下文工程,刚看了一个Langchain的演讲,很不错,分享给大家 https://docs.google.com/presentation/d/16aaXLu40GugY-kOpqDU4e-S0hD1FmHcNyF0rRRnb1OU 通过文件系统读写包含大量 token 的上下文(参考:Manus[4])。 将文件用于存储长期记忆(参考:Ambient Agents course[5]/repo[6])。 [4] Manus: https://manus.im/blog/Context-Engineering-for-AI-Agents-Lessons-from-Building-Manus [5] course: https://academy.langchain.com/courses/ambient-agents/ [6] repo: https://github.com/langchain-ai [12] Manus: https://manus.im/blog/Context-Engineering-for-AI-Agents-Lessons-from-Building-Manus [13

    77710编辑于 2025-07-27
  • 上下文AI与搜索平台集成以扩展精准上下文工程

    生成式AI革命已持续三年,但AI的有效性受到“上下文差距”的限制。 没有正确的上下文AI模型难以保证相关性,常常产生不准确或“幻觉”的响应。上下文工程旨在解决一个根本问题:在正确的时间以正确的格式提供正确的信息,使AI代理能够执行复杂的、特定于用例的任务。 如今,我们很高兴地宣布,Contextual AI正式加入Elastic AI生态系统——这是一套与Elasticsearch上下文工程平台和向量数据库集成的全面AI技术和工具。 其开放的、可用于生产的架构使其成为大规模构建可靠、上下文驱动的AI应用的理想基础。 通过将Contextual AI用于构建专业RAG代理的端到端上下文工程平台,与某中心的强大向量数据库和统一的Elasticsearch平台相结合,我们正在解决AI开发中最紧迫的挑战:上下文相关性和运营规模

    17810编辑于 2025-12-20
  • 来自专栏圣杰的专栏

    .NET+AI | MEAI | 上下文压缩(7)

    Chat Reducer:让 AI 对话突破上下文限制 一句话简介 Microsoft.Extensions.AI 的 Chat Reducer 通过智能压缩策略,在保持对话质量的前提下,有效控制上下文长度 核心价值 ✅ 突破限制:解决 LLM 上下文窗口限制(如 GPT-4 的 8K/32K tokens) ✅ 成本优化:减少输入 token,显著降低 API 调用成本 ✅ 性能提升:缩短上下文长度,加快模型推理速度 SummarizingChatReducer(摘要压缩器) 利用 AI 自动生成摘要压缩历史对话。 核心特性: 超过阈值时自动调用 AI 生成摘要 摘要存储在 AdditionalProperties 中 渐进式压缩(新摘要包含旧摘要) 保留完整语义上下文 适用场景: 医疗咨询(完整病史重要) [User] 问题5 [User] 问题5 [Assistant] 回答5 [Assistant] 回答5 [User] 问题6 [User] 问题6

    22210编辑于 2025-12-28
  • 来自专栏编码视界

    PySide6 GUI 编程(33):重载右键上下文菜单 contextMenuEvent

    示例代码from __future__ import annotationsimport sysfrom datetime import datetimefrom PySide6.QtGui import QAction, QContextMenuEventfrom PySide6.QtWidgets import QApplication, QMainWindow, QMenuclass MyMainWindow QContextMenuEvent): """ QMainWindow 的 contextMenuEvent(QContextMenuEvent *) 是一个事件处理器 它在用户请求上下文菜单时被触发 area)时触发,这取决于系统的行为和用户的设置 contextMenuEvent 事件处理器接收一个 QContextMenuEvent 对象作为参数 该对象包含了触发上下文菜单事件的相关信息

    70254编辑于 2024-08-23
  • 来自专栏自动化、性能测试

    性能测试必备知识(6)- 如何查看“CPU 上下文切换”

    结果分析 cswch:每秒自愿上下文切换 nvcswch:每秒非自愿上下文切换的次数 自愿上下文切换 进程无法获取所需自愿,导致的上下文切换 栗子:I/O、内存等系统资源不足时,就会发生 非自愿上下文切换 非自愿上下文切换,则是指进程由于时间片已到等原因,被系统强制调度,进而发生的上下文切换 栗子:大量进程都在争抢 CPU 时,就容易发生非自愿上下文切换 通过栗子去看上下文切换 前期准备 安装 sysbench 每秒上下文切换多少次才算正常? 根据上下文切换的类型,具体分析 自愿上下文切换多了,说明进程都在等待资源,有可能发生了 I/O 等其他问题 非自愿上下文切换多了,说明进程都在被强制调度,也就是都在争抢 CPU,说明 CPU 的确成了瓶颈 (cs)、中断次数(in)、就绪队列(r)、CPU 使用率(us、sy) 若上下文切换次数和 CPU 使用率过高,通过 pidstat 查看是哪个进程或线程的切换次数过高,CPU 使用率过高 然后确认是自愿上下文切换还是非自愿上下文切换

    3.1K10发布于 2020-07-27
  • 来自专栏phodal

    AI 智能体交互语言 DevIns:构建上下文感知的 AI 驱动编程

    在 AutoDev 1.7.2 中,我们开始构建一个新的 AI Agent 语言:DevIns,即 Development Instruction。 PS:其实原来是叫 DevIn,但是无奈 Devin AI 项目发布了 demo 视频,所以改名为 DevIns。 在 AutoDev 项目中,我们通过构建上下文感知与自定义能力,来实现对于软件开发任务的智能辅助,如自动测试生成与运行、UI 自动生成等。 你可以将你的需求描述成自然语言: 解释代码 /file:src/main/java/com/example/Controller.java 而后,AutoDev 将会结合上下文,并将其编译成对应的指令文本 而当语言接近发布的时候, 在社交媒体上更火的 Devin AI 项目也刚好发布了 demo 视频。 WTF????

    45810编辑于 2024-03-25
  • VFP AI 插件:超长上下文的识别(一)

    VFP AI 插件在访问大模型时,有一个上下文长度的问题。 对于 DeepSeek 而言,其大小为 128K(=128000 token)。 VFP AI 插件 2025.12.15 版,初步实现超长上下文的处理: 所分析 VCX 类库,使用类浏览器转换出的 prg 格式文件,文件体积为 400+KB,共 10329 行,超过模型最大上下文的最大限制

    12210编辑于 2026-03-10
  • 你是什么,你的 AI 就是什么,你的上下文是怎样的,你的 AI 上下文就是怎样的

    这不仅是角色扮演,更是一种思维同频: 当你以老板的上下文跟 ta 讲: 谈的是护城河、ROI、资源配置和宏观战略,ta 瞬间就是另一位深谋远虑的合伙人,与你推演商业棋局; 当你以生物学家的上下文跟 ta 在这个过程中,AI 并不是在凭空创造,而是在「共鸣」。 但这往往不是因为 AI 不够聪明,而是因为站在镜子前的人,并没有给出足够清晰的影像。 PART.04 你是谁,便遇见谁 使用 AI 到最后,你会发现这其实是一场向内的修行。 限制 AI 输出上限的,往往不是算力,也不是显卡,而是: 你对问题本质的理解程度; 你构建专业语境的能力; 你自身知识体系的边界。 你是什么,你的 AI 就是什么。

    17110编辑于 2026-01-27
  • VFP AI 插件:超长上下文的识别(二)

    距离上一篇VFP AI 插件:超长上下文的识别(一)有些时间了。经过不断的试错和优化,终于完成了 VFP AI 插件的超长上下的识别。将时间从数小时压缩至最多几十分钟。 也意味着,为使用 VFP AI 插件进行项目分析扫清了主要的障碍。 凤凰涅槃,浴火重生!

    10010编辑于 2026-03-10
  • Go在AI对话上下文压缩处理上的实践

    这是因为大模型有上下文长度限制,对话越长,历史消息越多,就越容易超限。结合我的理解,这篇文章分享一下如何实现上下文压缩,让你的 AI 应用既能"记住"关键信息,又能节省成本。 为什么需要上下文压缩? 面对上下文压缩,我们有三种主流策略: 摘要压缩:让 AI 把历史对话总结成一段摘要。适合长对话场景,比如客服机器人、知识问答。优点是信息损失小,缺点是需要额外 API 调用。 也可以根据 Token 数量判断,超过总上下文的 70% 就压缩。 注意事项: 摘要会丢失细节信息。如果用户问"我刚才说的那个餐厅叫什么",AI 可能答不上来。 太小会丢失上下文,太大又起不到压缩效果。可以根据实际场景调整。 一个改进技巧: 系统消息(System Prompt)要始终保留。它定义了 AI 的角色和行为准则,丢了会影响回复质量。 可以设计一个机制,当 AI 不确定时主动追问:"抱歉,能再告诉我一次您的联系方式吗?" 写在最后 今天我们介绍了三种 AI 对话上下文压缩策略: 摘要压缩:让 AI 总结历史,保留语义完整性。

    31010编辑于 2026-03-02
  • 来自专栏设计模式

    AI 智能体上下文工程 4 大实用策略解析

    上下文工程是】“……一种精妙的艺术与科学,旨在为下一步操作的上下文窗口填充恰好所需的信息。” LLM应用中常见的上下文类型 在构建LLM应用时,我们需要管理哪些类型的上下文呢? ):上下文内容过多超出模型训练适应范围 - 上下文混淆(Context Confusion):冗余上下文影响响应结果 - 上下文冲突(Context Clash):上下文各部分信息相互矛盾 工具调用产生的上下文会在智能体的多轮交互中不断累积 鉴于此,Cognition公司强调了上下文工程的重要性: “上下文工程”……实际上是构建AI智能体的工程师的首要工作。 在AI工程师世界博览会上,西蒙·威利森(Simon Willison)分享了一个选择失误的例子:ChatGPT从记忆中获取了他的位置信息,并意外地将其注入到用户请求生成的图像中。 选择上下文——将信息拉入上下文窗口,辅助智能体执行任务。 压缩上下文——仅保留执行任务所需的tokens。 隔离上下文——拆分上下文,以帮助智能体执行任务。

    86111编辑于 2025-10-20
  • 来自专栏DotNet NB && CloudNative

    .NET + AI | 可控广播上下文相关的函数列表

    上下文匹配搜索:每次发起会话时,根据上下文信息在向量存储中搜索最匹配的函数。 模型调用:将匹配的函数传递给语言模型,用于生成更准确的响应。 Microsoft.SemanticKernel.Agents.Core,*-*" #r "nuget:Microsoft.SemanticKernel.Connectors.InMemory,*-*" #r "nuget:Microsoft.Extensions.AI 初始化 Kernel 通过 Kernel 实现 AI 服务的初始化,包括注册聊天模型和嵌入生成器: var builder = Kernel.CreateBuilder(); // 添加 Azure 代码如下: using Microsoft.Extensions.AI; ///

    /// 返回属于不同分类的函数列表。 6.

    18800编辑于 2025-07-04
  • 来自专栏又见苍岚

    上下文

    所以业务上下文变更需要慎之又慎。 运行程序上下文 大家应该对一句话有印象:(进程/线程)上下文切换开销很大。这里的上下文一般指的就是运行程序的上下文。 这里的通信问题就是进程上下文切换开销大的缘故。 方法/类所在的上下文(作用域) 方法上下文可以理解为方法所在的作用域。类亦如此。 还有一些比较特殊的概念实际上也是和方法上下文相关。 比如worker语言特性中,需要监听message事件,这实质上,就是在当前上下文监听另一个上下文的状态。再比如回调函数。实际上是因为上下文变更后,对原有上下文访问的一种编程手段。 从这个角度看,闭包实质上也是对上下文的一种操作手段:返回一个函数,该函数在当前上下文可以操作闭包上的上下文。 执行上下文:当函数或方法被调用时,它会创建一个执行上下文,这个上下文包括了局部变量、参数、返回地址等信息。在JavaScript等语言中,执行上下文还包括this的值。

    72110编辑于 2024-07-31
  • 来自专栏AgenticAI

    6AI Agent模式详解

    在本文中,我们将探讨多种构建 AI 智能体结构的模式。这些模式有助于我们扩展功能、保持模块化,并更好地控制执行流程。 为什么使用多智能体模式? 一开始,通常会采用单智能体模型。 适用于按领域或部门划分逻辑的系统 每个监督者管理一组特定任务或智能体 优势: 高度可扩展且结构清晰 各层级具备模块化控制能力 挑战: 实现复杂度较高 层级之间需要明确定义接口 适用场景: 企业级系统、多领域编排任务 6.

    1.1K10编辑于 2025-07-27
  • 来自专栏AI uTools

    Autopilot:全球首个基于上下文引擎的 AI 办公助手

    Context Autopilot:全球首个上下文引擎驱动的 AI 办公助手 Context Autopilot 是由 Context 公司推出的一款 AI 办公助手,旨在通过先进的人工智能技术提升工作效率 上下文引擎使用:根据上下文推理与公司需求对齐,并能回忆与任务相关的所有信息。 主要功能特点 AI 驱动的操作系统: 基于 大语言模型(LLM),成为用户智能助手,处理并自动化工作任务。 关键技术 上下文引擎和记忆堆栈 上下文引擎:执行深度推理,挖掘信息中的联系,提供对知识体系的深入理解。 记忆堆栈:具有“状态保持”能力,支持动态上下文处理,使 Autopilot 能够自我优化。 推理与长上下文处理(Long Context Handling) 在长时间任务中保持任务的上下文一致性,优化推理能力,处理复杂任务。

    1.5K10编辑于 2024-11-18
  • AI大模型新资讯】从信息蜂房到上下文工程

    (3)AI游戏引擎不同于传统游戏引擎,AI游戏引擎是玩家想象力的“放大器”,任何人可以随心所欲“创造”游戏!AI引擎的崛起带动着生成式游戏的兴起与发展。 (4)质陪解决方案由中关村科金得助智能开发,创造性地融合成熟的AI大模型质检与陪练系统,推出了全面高效的“质陪解决方案”。智能质检采用大小模型结合的方式,对销售人员的销售行为进行全方位监测和分析。 (5)上下文工程上下文工程指通过为任务提供完整的背景信息,让大模型能够合理解决问题。在AI智能体的兴起发展过程中,上下文工程才是决定大多数AI智能体成败的关键而并非模型。 上下文工程致力于设计和构建动态系统而并非字符串,这些系统在恰当的时机提供信息和工具,从而让LLM拥有完成任务所需的一切。

    14620编辑于 2025-07-15
  • 来自专栏AI大模型应用开发炼丹房

    揭秘上下文工程+MCP:打造高效AI智能体的秘诀

    大模型其实根本不用懂 模型上下文协议(MCP)如今已成为构建AI智能体时“工具调用”的标准配置。但很多人误解了一点:你的大语言模型(LLM)并不需要理解MCP是什么。 如果你对上下文工程不是很清晰,我之前也整理过关于Agent上下文工程的工作原理,建议粉丝朋友自行查阅,以便更好的理解本文的分享内容:《图解Agent上下文工程,小白都能看懂》MCP 的作用,其实是帮助AI AI回复(可能包含工具调用请求)2. 用户问题(如“旧金山天气如何?”)2. 若需调用工具:标注工具ID、名称及参数3. 三、MCP:开发者的“工具万能接口” 模型上下文协议(MCP)的本质,是一种标准化方法,用于帮助AI智能体连接多种数据源,包括工具、提示语、资源、示例等。 四、回归上下文工程:MCP是来帮你减负的 “上下文工程”的核心在于为模型提供高质量的背景信息,以引导其生成更准确的回复。

    80251编辑于 2025-09-30
  • 来自专栏菩提树下的杨过

    spring-ai 学习系列(8)-上下文记忆-多轮对话

    \n\n不过,可能题目是在某种特定的上下文中,比如在数学问题中,或者可能题目本身存在一些陷阱。比如,有时候变量可能有不同的含义,或者在某些语言中,变量名可能与实际值不一致? ,所以直接的数学运算就是5+1=6,所以正确结果应该是6。可能这个问题本身是数学题,所以答案是6,不需要进一步的思考,只是直接给出结果。 \n\n总之,根据题目的信息,正确的答案应该是6,所以应该直接回答6。 \n</think>\n\n根据题目描述,变量A的初始值为5,执行A += 1操作后,变量A的值变为:\n\n**6**\n\n因此,答案是:6。" 当前新问题,扔到聊天上下文中 chatMemory.add(conversationId, new UserMessage(prompt)); // 2.

    95510编辑于 2025-08-22
  • 来自专栏量子位

    迁移学习让AI更好地理解上下文:Salesforce新论文

    理解上下文,就是一个非常适合迁移学习的问题。 Learned in Translation 我们所能想到的大部分NLP任务,都有“理解上下文”的需求。 /~amaas/data/sentiment/ 问题分类 TREC-6 http://cogcomp.cs.illinois.edu/Data/QA/QC/ TREC-50 http://cogcomp.cs.illinois.edu 结论 简单概括起来,这项研究就是说,让AI学一学翻译,能帮它更好地理解语言,在分类、问答等等其他NLP任务上都会有更好的表现。? 相关链接 博客文章: https://einstein.ai/research/learned-in-translation-contextualized-word-vectors 论文: Bryan Learned in Translation: Contextualized Word Vectors https://einstein.ai/static/images/layouts/research

    1.3K40发布于 2018-03-28
领券