首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏sktj

    flask 上下文变量(flask 11)

    全局变量 from flask import g @app.before_request def get_name(): g.name=request.args.get('name') 程序上下文钩子

    36910发布于 2019-08-13
  • 上下文AI与搜索平台集成以扩展精准上下文工程

    生成式AI革命已持续三年,但AI的有效性受到“上下文差距”的限制。 没有正确的上下文AI模型难以保证相关性,常常产生不准确或“幻觉”的响应。上下文工程旨在解决一个根本问题:在正确的时间以正确的格式提供正确的信息,使AI代理能够执行复杂的、特定于用例的任务。 如今,我们很高兴地宣布,Contextual AI正式加入Elastic AI生态系统——这是一套与Elasticsearch上下文工程平台和向量数据库集成的全面AI技术和工具。 其开放的、可用于生产的架构使其成为大规模构建可靠、上下文驱动的AI应用的理想基础。 通过将Contextual AI用于构建专业RAG代理的端到端上下文工程平台,与某中心的强大向量数据库和统一的Elasticsearch平台相结合,我们正在解决AI开发中最紧迫的挑战:上下文相关性和运营规模

    17810编辑于 2025-12-20
  • 来自专栏圣杰的专栏

    .NET+AI | MEAI | 上下文压缩(7)

    Chat Reducer:让 AI 对话突破上下文限制 一句话简介 Microsoft.Extensions.AI 的 Chat Reducer 通过智能压缩策略,在保持对话质量的前提下,有效控制上下文长度 核心价值 ✅ 突破限制:解决 LLM 上下文窗口限制(如 GPT-4 的 8K/32K tokens) ✅ 成本优化:减少输入 token,显著降低 API 调用成本 ✅ 性能提升:缩短上下文长度,加快模型推理速度 SummarizingChatReducer(摘要压缩器) 利用 AI 自动生成摘要压缩历史对话。 核心特性: 超过阈值时自动调用 AI 生成摘要 摘要存储在 AdditionalProperties 中 渐进式压缩(新摘要包含旧摘要) 保留完整语义上下文 适用场景: 医疗咨询(完整病史重要) 使用计数压缩器 using Microsoft.Extensions.AI; // 创建压缩器,保留最近 3 条消息 var countingReducer = new MessageCountingChatReducer

    22210编辑于 2025-12-28
  • 来自专栏MixLab科技+设计实验室

    系统原生的MCP来了,Windows 11 将采用模型上下文协议MCP

    MCP 定义了三种角色: MCP Hosts 希望通过 MCP 访问功能的应用程序或 AI 工具 MCP Clients 发起请求到 MCP 服务器的客户端 MCP Servers 通过 MCP 接口公开特定功能 随着 AI 代理日益强大并集成到日常工作流程中,确保工具和代理之间通信安全的需求变得前所未有的重要。MCP 虽然带来了强大的新可能性,但也引入了新的风险。 Windows 11 如何在其 MCP 安全架构中提供基础安全能力? Windows 11 将提供哪些具体的 MCP 安全控制措施? 微软相信信任是创新的基础,通过将安全构建到代理平台的核心,Windows 上的 AI 未来不仅强大,而且安全。

    28510编辑于 2026-03-24
  • 来自专栏phodal

    AI 智能体交互语言 DevIns:构建上下文感知的 AI 驱动编程

    在 AutoDev 1.7.2 中,我们开始构建一个新的 AI Agent 语言:DevIns,即 Development Instruction。 PS:其实原来是叫 DevIn,但是无奈 Devin AI 项目发布了 demo 视频,所以改名为 DevIns。 在 AutoDev 项目中,我们通过构建上下文感知与自定义能力,来实现对于软件开发任务的智能辅助,如自动测试生成与运行、UI 自动生成等。 你可以将你的需求描述成自然语言: 解释代码 /file:src/main/java/com/example/Controller.java 而后,AutoDev 将会结合上下文,并将其编译成对应的指令文本 而当语言接近发布的时候, 在社交媒体上更火的 Devin AI 项目也刚好发布了 demo 视频。 WTF????

    45810编辑于 2024-03-25
  • VFP AI 插件:超长上下文的识别(一)

    VFP AI 插件在访问大模型时,有一个上下文长度的问题。 对于 DeepSeek 而言,其大小为 128K(=128000 token)。 VFP AI 插件 2025.12.15 版,初步实现超长上下文的处理: 所分析 VCX 类库,使用类浏览器转换出的 prg 格式文件,文件体积为 400+KB,共 10329 行,超过模型最大上下文的最大限制

    12210编辑于 2026-03-10
  • 你是什么,你的 AI 就是什么,你的上下文是怎样的,你的 AI 上下文就是怎样的

    这不仅是角色扮演,更是一种思维同频: 当你以老板的上下文跟 ta 讲: 谈的是护城河、ROI、资源配置和宏观战略,ta 瞬间就是另一位深谋远虑的合伙人,与你推演商业棋局; 当你以生物学家的上下文跟 ta 在这个过程中,AI 并不是在凭空创造,而是在「共鸣」。 但这往往不是因为 AI 不够聪明,而是因为站在镜子前的人,并没有给出足够清晰的影像。 PART.04 你是谁,便遇见谁 使用 AI 到最后,你会发现这其实是一场向内的修行。 限制 AI 输出上限的,往往不是算力,也不是显卡,而是: 你对问题本质的理解程度; 你构建专业语境的能力; 你自身知识体系的边界。 你是什么,你的 AI 就是什么。

    17110编辑于 2026-01-27
  • VFP AI 插件:超长上下文的识别(二)

    距离上一篇VFP AI 插件:超长上下文的识别(一)有些时间了。经过不断的试错和优化,终于完成了 VFP AI 插件的超长上下的识别。将时间从数小时压缩至最多几十分钟。 也意味着,为使用 VFP AI 插件进行项目分析扫清了主要的障碍。 凤凰涅槃,浴火重生!

    10010编辑于 2026-03-10
  • 来自专栏白话互联

    Ai Agent】Ai Agent News | 9月11日速递

    今天是9月11日星期四,让我们一起来看看今天 Ai Agent 带来的 AI 领域的重要动态吧! ❤ Indeed Unveils AI Agents for Job Seekers and Recruiters 求职招聘领域迎来AI助手新时代 Indeed推出了两款AI Agents,分别面向求职者和招聘方 ❤ Secure AI Agents at Runtime with Docker Docker推出AI Agent运行时安全解决方案 Docker发布了关于如何在运行时保护AI Agent的新方法, 随着AI工具的强大和普及,它们也变得不可预测且易受攻击。从LLM输出中的幻觉到提示注入,AI工作流面临多重安全威胁。 AI Agent时嵌入运行时安全,为AI原生开发提供更可靠的安全保障。

    33310编辑于 2025-09-17
  • Go在AI对话上下文压缩处理上的实践

    这是因为大模型有上下文长度限制,对话越长,历史消息越多,就越容易超限。结合我的理解,这篇文章分享一下如何实现上下文压缩,让你的 AI 应用既能"记住"关键信息,又能节省成本。 为什么需要上下文压缩? 面对上下文压缩,我们有三种主流策略: 摘要压缩:让 AI 把历史对话总结成一段摘要。适合长对话场景,比如客服机器人、知识问答。优点是信息损失小,缺点是需要额外 API 调用。 也可以根据 Token 数量判断,超过总上下文的 70% 就压缩。 注意事项: 摘要会丢失细节信息。如果用户问"我刚才说的那个餐厅叫什么",AI 可能答不上来。 太小会丢失上下文,太大又起不到压缩效果。可以根据实际场景调整。 一个改进技巧: 系统消息(System Prompt)要始终保留。它定义了 AI 的角色和行为准则,丢了会影响回复质量。 可以设计一个机制,当 AI 不确定时主动追问:"抱歉,能再告诉我一次您的联系方式吗?" 写在最后 今天我们介绍了三种 AI 对话上下文压缩策略: 摘要压缩:让 AI 总结历史,保留语义完整性。

    31010编辑于 2026-03-02
  • 来自专栏设计模式

    AI 智能体上下文工程 4 大实用策略解析

    上下文工程是】“……一种精妙的艺术与科学,旨在为下一步操作的上下文窗口填充恰好所需的信息。” LLM应用中常见的上下文类型 在构建LLM应用时,我们需要管理哪些类型的上下文呢? ):上下文内容过多超出模型训练适应范围 - 上下文混淆(Context Confusion):冗余上下文影响响应结果 - 上下文冲突(Context Clash):上下文各部分信息相互矛盾 工具调用产生的上下文会在智能体的多轮交互中不断累积 鉴于此,Cognition公司强调了上下文工程的重要性: “上下文工程”……实际上是构建AI智能体的工程师的首要工作。 在AI工程师世界博览会上,西蒙·威利森(Simon Willison)分享了一个选择失误的例子:ChatGPT从记忆中获取了他的位置信息,并意外地将其注入到用户请求生成的图像中。 选择上下文——将信息拉入上下文窗口,辅助智能体执行任务。 压缩上下文——仅保留执行任务所需的tokens。 隔离上下文——拆分上下文,以帮助智能体执行任务。

    86111编辑于 2025-10-20
  • 来自专栏DotNet NB && CloudNative

    .NET + AI | 可控广播上下文相关的函数列表

    上下文匹配搜索:每次发起会话时,根据上下文信息在向量存储中搜索最匹配的函数。 模型调用:将匹配的函数传递给语言模型,用于生成更准确的响应。 Microsoft.SemanticKernel.Agents.Core,*-*" #r "nuget:Microsoft.SemanticKernel.Connectors.InMemory,*-*" #r "nuget:Microsoft.Extensions.AI 初始化 Kernel 通过 Kernel 实现 AI 服务的初始化,包括注册聊天模型和嵌入生成器: var builder = Kernel.CreateBuilder(); // 添加 Azure 代码如下: using Microsoft.Extensions.AI; ///

    /// 返回属于不同分类的函数列表。 自定义上下文函数提供者 通过 InMemoryVectorStore 和 ContextualFunctionProvider 实现上下文感知功能选择: using Microsoft.SemanticKernel.Connectors.InMemory

    18800编辑于 2025-07-04
  • 来自专栏又见苍岚

    上下文

    所以业务上下文变更需要慎之又慎。 运行程序上下文 大家应该对一句话有印象:(进程/线程)上下文切换开销很大。这里的上下文一般指的就是运行程序的上下文。 这里的通信问题就是进程上下文切换开销大的缘故。 方法/类所在的上下文(作用域) 方法上下文可以理解为方法所在的作用域。类亦如此。 还有一些比较特殊的概念实际上也是和方法上下文相关。 比如worker语言特性中,需要监听message事件,这实质上,就是在当前上下文监听另一个上下文的状态。再比如回调函数。实际上是因为上下文变更后,对原有上下文访问的一种编程手段。 从这个角度看,闭包实质上也是对上下文的一种操作手段:返回一个函数,该函数在当前上下文可以操作闭包上的上下文。 执行上下文:当函数或方法被调用时,它会创建一个执行上下文,这个上下文包括了局部变量、参数、返回地址等信息。在JavaScript等语言中,执行上下文还包括this的值。

    72110编辑于 2024-07-31
  • 来自专栏AI uTools

    Autopilot:全球首个基于上下文引擎的 AI 办公助手

    Context Autopilot:全球首个上下文引擎驱动的 AI 办公助手 Context Autopilot 是由 Context 公司推出的一款 AI 办公助手,旨在通过先进的人工智能技术提升工作效率 上下文引擎使用:根据上下文推理与公司需求对齐,并能回忆与任务相关的所有信息。 主要功能特点 AI 驱动的操作系统: 基于 大语言模型(LLM),成为用户智能助手,处理并自动化工作任务。 关键技术 上下文引擎和记忆堆栈 上下文引擎:执行深度推理,挖掘信息中的联系,提供对知识体系的深入理解。 记忆堆栈:具有“状态保持”能力,支持动态上下文处理,使 Autopilot 能够自我优化。 推理与长上下文处理(Long Context Handling) 在长时间任务中保持任务的上下文一致性,优化推理能力,处理复杂任务。

    1.5K10编辑于 2024-11-18
  • AI大模型新资讯】从信息蜂房到上下文工程

    (3)AI游戏引擎不同于传统游戏引擎,AI游戏引擎是玩家想象力的“放大器”,任何人可以随心所欲“创造”游戏!AI引擎的崛起带动着生成式游戏的兴起与发展。 (4)质陪解决方案由中关村科金得助智能开发,创造性地融合成熟的AI大模型质检与陪练系统,推出了全面高效的“质陪解决方案”。智能质检采用大小模型结合的方式,对销售人员的销售行为进行全方位监测和分析。 (5)上下文工程上下文工程指通过为任务提供完整的背景信息,让大模型能够合理解决问题。在AI智能体的兴起发展过程中,上下文工程才是决定大多数AI智能体成败的关键而并非模型。 上下文工程致力于设计和构建动态系统而并非字符串,这些系统在恰当的时机提供信息和工具,从而让LLM拥有完成任务所需的一切。

    14620编辑于 2025-07-15
  • 来自专栏AI大模型应用开发炼丹房

    揭秘上下文工程+MCP:打造高效AI智能体的秘诀

    大模型其实根本不用懂 模型上下文协议(MCP)如今已成为构建AI智能体时“工具调用”的标准配置。但很多人误解了一点:你的大语言模型(LLM)并不需要理解MCP是什么。 如果你对上下文工程不是很清晰,我之前也整理过关于Agent上下文工程的工作原理,建议粉丝朋友自行查阅,以便更好的理解本文的分享内容:《图解Agent上下文工程,小白都能看懂》MCP 的作用,其实是帮助AI AI回复(可能包含工具调用请求)2. 用户问题(如“旧金山天气如何?”)2. 若需调用工具:标注工具ID、名称及参数3. 三、MCP:开发者的“工具万能接口” 模型上下文协议(MCP)的本质,是一种标准化方法,用于帮助AI智能体连接多种数据源,包括工具、提示语、资源、示例等。 四、回归上下文工程:MCP是来帮你减负的 “上下文工程”的核心在于为模型提供高质量的背景信息,以引导其生成更准确的回复。

    80251编辑于 2025-09-30
  • AI日报 - 2025年3月11

    AI日报 - 2025年3月11日 今日概览(60秒速览) ▎ AGI突破 | OpenAI发布神秘预告引发AGI猜测 中国AI代理「Manus」实现50项任务自动化引伦理争议 ▎ 商业动向 | Turing Institute举办AI伦理保障平台在线研讨会 美国拟对低质量生成AI工具启动多重调查 ▎ 技术趋势 | 小模型突破:Qwen2.5-Math-7B实现高精度数学推理 Diffusion 客服公司Moveworks ⚡ 近五年AI领域最大并购案,估值较去年增长400% 行业影响: ▸ 加速企业级AI解决方案市场整合 ▸ 预示RPA+LLM技术融合进入商业化深水区 "这将重新定义企业智能自动化边界 行业影响: ▸ 学术出版规范面临重大挑战 ▸ 催生AI内容检测技术新需求 "必须建立AI时代的学术诚信新范式" - NeurIPS程序主席undefined Scale AI发布MASK基准测试评估 ▸ 呼吁建立AI安全全球治理框架 5.2 Percy Liang(斯坦福NLP主任) 影响力指数:★★★★☆ "2025年AI工程化的核心挑战在于评估体系创新"undefined● 行业影响

    67600编辑于 2025-03-10
  • 今日 AI 热点速读(2026-03-11

    来源:HackerNews,Engadget,FastCompany|编译日期:2026-03-11今日概览今天我们共扫描了3个外媒来源,经过自动去重与筛选,为你保留了3个最值得关注的独立AI事件。 随着大模型能力的提升,开发者的关注点正在从“如何让AI回答问题”转向“如何让AI替我干活”。这篇热帖探讨了构建能够在后台持续运行、甚至在用户睡觉时自动执行复杂任务的AIAgent。 这类行业动态的价值不仅在于技术本身的实现,更在于它向我们揭示了市场下一步的真正需求——从被动的“对话式AI”向主动的“自动化行动AI”演进。 原文:HackerNews2.谷歌加速AI落地:Chrome版Gemini扩展至加、印、新三国来源:Engadget继在美国市场率先亮相后,谷歌正稳步扩大其浏览器端AI的覆盖范围。 后续我们可以优先盯住两类变化:一是大平台AI功能的渗透率与用户留存情况,二是当AI代理开始自动执行任务时,随之而来的数据隐私、合规约束以及全新的交互模式。

    26610编辑于 2026-03-11
  • 来自专栏代码日志

    2026年03月11AI早报

    > 来源:我是AI Karpathy推出AgentHub:构建AI智能体专属协作平台 正文明:前特斯拉AI负责人Andrej Karpathy开源新项目AgentHub,打造专为AI智能体设计的极简协作平台 该平台基于Git架构,支持多Agent在同一代码库中提交与通信,目标是建立自治型AI研发社区,推动Agentic AI工程化落地。 > 来源:量子位 首个千万美金ARR的AI4S公司MetaNovas实现AI分子商业落地 正文明:MetaNovas成为全球首个达成千万美元年经常性收入(ARR)的AI for Science公司,其 Agentic AI平台MetAmigo完成从AI设计到合规备案的新分子全流程闭环。 双方将聚焦大模型基础设施与高效推理优化,加速AI在东南亚地区的产业化部署,进一步拓展英伟达在全球AI生态中的技术影响力。

    54110编辑于 2026-03-16
  • 来自专栏又见苍岚

    Windows 11 体验 Stable Diffusion AI 图像生成

    Stable Diffusion 已经发展到可以生成以假乱真图像的程度,无论是 AI 作画还是照片生成都已经可以生成得很精细,本文记录使用过程。 本文记录在 Windows 11 下安装、配置、运行 Stable-diffusion 的流程 过程中经常需要访问境外的网站,需要访问国外网站。 webui-user.bat 文件,我在过程中遇到很多问题,没有问题的同志可以跳过这一节 安装 CUDA 11.7 下载链接:https://developer.nvidia.com/cuda-11 CLIP 安装 CLIP 仓库链接 stable-diffusion-stability-ai 仓库地址: https://github.com/Stability-AI/stablediffusion LoRA(Low-Rank Adaptation of Large Language Models)粗略地讲就是利用少量的图像来对 AI 进行额外学习训练,并在一定程度上控制结果。

    2.7K00编辑于 2023-03-28
领券