首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 来自专栏有趣的django

    10.Flask上下文

    request上下文  应用上下文和请求上下文都是存放在一个‘LocalStack’的栈中,和应用app相关的操作就必须要用到应用上下文,比如通过current_app获取当前的这个app的名字。 如果想要在视图函数外面执行相关的操作,name就必须要手动推入相关的上下文 手动推入请求上下文:推入请求上下文到栈中,会首先判断有没有应用上下文,如果没有那么就会先推入应用上下文到栈中,然后再推入请求上下文到栈中 app上下文 from flask import Flask,current_app app = Flask(__name__) #如果在视图函数外部访问,则必须手动推入一个app上下文到app上下文栈中 # 手动推入一个请求上下文到请求上下文栈中 # 如果当前应用上下文栈中没有应用上下文 # 那么会首先推入一个应用上下文到栈中 print(url_for('my_list')) 使用哪个请求上下文的时候,就把对应的请求上下文放到栈的顶部,用完了就要把这个请求上下文从栈中移除掉。

    47410发布于 2018-08-01
  • 来自专栏技术墨客

    React学习(10)—— 高阶应用:上下文(Context)

    任意组件更新Context 某些时候需要在内部组件需要去更新Context的数据,其实我们仅仅需要向上下文增加一个回调即可,看下面的例子: //创建Context组件 const ThemeContext = React.createContext({ theme: 'dark', toggle: () => {}, //向上下文设定一个回调方法 }); function Button() {

    1.4K30发布于 2018-08-15
  • 上下文AI与搜索平台集成以扩展精准上下文工程

    生成式AI革命已持续三年,但AI的有效性受到“上下文差距”的限制。 没有正确的上下文AI模型难以保证相关性,常常产生不准确或“幻觉”的响应。上下文工程旨在解决一个根本问题:在正确的时间以正确的格式提供正确的信息,使AI代理能够执行复杂的、特定于用例的任务。 如今,我们很高兴地宣布,Contextual AI正式加入Elastic AI生态系统——这是一套与Elasticsearch上下文工程平台和向量数据库集成的全面AI技术和工具。 其开放的、可用于生产的架构使其成为大规模构建可靠、上下文驱动的AI应用的理想基础。 通过将Contextual AI用于构建专业RAG代理的端到端上下文工程平台,与某中心的强大向量数据库和统一的Elasticsearch平台相结合,我们正在解决AI开发中最紧迫的挑战:上下文相关性和运营规模

    17810编辑于 2025-12-20
  • 来自专栏圣杰的专栏

    .NET+AI | MEAI | 上下文压缩(7)

    Chat Reducer:让 AI 对话突破上下文限制 一句话简介 Microsoft.Extensions.AI 的 Chat Reducer 通过智能压缩策略,在保持对话质量的前提下,有效控制上下文长度 核心价值 ✅ 突破限制:解决 LLM 上下文窗口限制(如 GPT-4 的 8K/32K tokens) ✅ 成本优化:减少输入 token,显著降低 API 调用成本 ✅ 性能提升:缩短上下文长度,加快模型推理速度 SummarizingChatReducer(摘要压缩器) 利用 AI 自动生成摘要压缩历史对话。 核心特性: 超过阈值时自动调用 AI 生成摘要 摘要存储在 AdditionalProperties 中 渐进式压缩(新摘要包含旧摘要) 保留完整语义上下文 适用场景: 医疗咨询(完整病史重要) 参数调优建议 MessageCountingChatReducer: 策略 参数配置 适用场景 保守策略 targetCount: 10 上下文敏感场景 均衡策略 targetCount: 5 一般对话

    22210编辑于 2025-12-28
  • 来自专栏k8s技术圈

    应该了解的 10 个 Kubernetes 安全上下文配置

    这些标签被称为安全上下文(不要和 Kubernetes 中的 securityContext 混淆了)- 由用户、角色、类型和可选的一些其他属性组成,格式为:user:role:type:level。 然后,SELinux 使用策略来定义特定上下文中的哪些进程可以访问系统中其他被标记的对象。 10sysctls [P] Sysctls 是 Linux 内核的一个功能,它允许管理员修改内核配置。 原文链接:https://snyk.io/blog/10-kubernetes-security-context-settings-you-should-understand/

    2.5K40发布于 2021-04-26
  • 来自专栏程序你好

    微软Windows 10上下文菜单引入Fluent Design风格

    微软正在将Fluent Design扩展到Windows 10的更多部分,本周早些时候发布的最新预览版本也带来了这方面的更多变化。 在周五发布的更新版本说明中,微软透露Fluent Design在Windows 10 build 17692中也开始部署,半透明效果现在可用于XAML控件。 Windows 10的系统UI控件杂乱的问题一直是被用户诟病的对象,同一个鼠标右键可以按出五六种菜单的尴尬可能已经开始缓解。 Fluent Design现在可用于上下文菜单、弹出窗口、自动建议对话框和下拉菜单以及时间选择器弹出窗口。 微软表示,使用新的SDK构建的应用程序也会默认看到此更改。 ?

    62520发布于 2018-07-20
  • 来自专栏XINDOO的专栏

    Agent设计模式——第 10 章:模型上下文协议 (MCP)

    这本质上就是模型上下文协议(MCP)的功能。 然后客户端将此结果传递回 LLM,更新其上下文并使其能继续任务的下一步 实际应用和用例 MCP 显著扩展了 AI/LLM 能力,使其更加多功能强大。 这使得能够模块化开发复杂的、多组件系统,并将现有服务无缝集成到 AI 可访问的框架中。此外,FastMCP 包括针对高效、分布式和可扩展的 AI 驱动应用程序的优化。 这种临时方法阻碍可扩展性,并使构建复杂互联 AI 系统变得困难低效 为什么:模型上下文协议(MCP)通过充当 LLM 和外部系统间通用接口提供标准化解决方案。 对具有固定有限数量预定义函数的简单应用程序,直接工具函数调用可能足够 可视化摘要 图 1:模型上下文协议 关键要点 以下是本章核心要点: 模型上下文协议(MCP)是开放标准,促进 LLM 与外部应用程序

    2.1K10编辑于 2025-10-27
  • 来自专栏python3

    django-10-中间件和上下文管理器

    MIDDLEWARE里面导入中间件  如果没有MIDDLEWARE就自己定义一个(有些django版本的settings里面是MIDDLEWARE_CLASSES)  视图从上向下,响应从下向上 <<<上下文处理器 >>>  所有的模板上都需要一个特定的变量是,上下文管理器就能处理好  (1)在app目录下  customer_context_processors.py  (2)上下文处理器就是一个函数,函数必须传入 list_display = []   list_display_links = []   list_fields = []   list_filter = []过滤器   list_per_page = 10

    69310发布于 2020-01-17
  • 来自专栏phodal

    AI 智能体交互语言 DevIns:构建上下文感知的 AI 驱动编程

    在 AutoDev 1.7.2 中,我们开始构建一个新的 AI Agent 语言:DevIns,即 Development Instruction。 PS:其实原来是叫 DevIn,但是无奈 Devin AI 项目发布了 demo 视频,所以改名为 DevIns。 在 AutoDev 项目中,我们通过构建上下文感知与自定义能力,来实现对于软件开发任务的智能辅助,如自动测试生成与运行、UI 自动生成等。 你可以将你的需求描述成自然语言: 解释代码 /file:src/main/java/com/example/Controller.java 而后,AutoDev 将会结合上下文,并将其编译成对应的指令文本 而当语言接近发布的时候, 在社交媒体上更火的 Devin AI 项目也刚好发布了 demo 视频。 WTF????

    45810编辑于 2024-03-25
  • VFP AI 插件:超长上下文的识别(一)

    VFP AI 插件在访问大模型时,有一个上下文长度的问题。 对于 DeepSeek 而言,其大小为 128K(=128000 token)。 VFP AI 插件 2025.12.15 版,初步实现超长上下文的处理: 所分析 VCX 类库,使用类浏览器转换出的 prg 格式文件,文件体积为 400+KB,共 10329 行,超过模型最大上下文的最大限制

    12210编辑于 2026-03-10
  • 你是什么,你的 AI 就是什么,你的上下文是怎样的,你的 AI 上下文就是怎样的

    这不仅是角色扮演,更是一种思维同频: 当你以老板的上下文跟 ta 讲: 谈的是护城河、ROI、资源配置和宏观战略,ta 瞬间就是另一位深谋远虑的合伙人,与你推演商业棋局; 当你以生物学家的上下文跟 ta 在这个过程中,AI 并不是在凭空创造,而是在「共鸣」。 但这往往不是因为 AI 不够聪明,而是因为站在镜子前的人,并没有给出足够清晰的影像。 PART.04 你是谁,便遇见谁 使用 AI 到最后,你会发现这其实是一场向内的修行。 限制 AI 输出上限的,往往不是算力,也不是显卡,而是: 你对问题本质的理解程度; 你构建专业语境的能力; 你自身知识体系的边界。 你是什么,你的 AI 就是什么。

    17110编辑于 2026-01-27
  • VFP AI 插件:超长上下文的识别(二)

    距离上一篇VFP AI 插件:超长上下文的识别(一)有些时间了。经过不断的试错和优化,终于完成了 VFP AI 插件的超长上下的识别。将时间从数小时压缩至最多几十分钟。 也意味着,为使用 VFP AI 插件进行项目分析扫清了主要的障碍。 凤凰涅槃,浴火重生!

    10010编辑于 2026-03-10
  • 来自专栏ADAS性能优化

    AI weekly (10-26)

    can stop a facial recognition network from identifying people in videos. https://venturebeat.com/2019/10 software tools for artificial intelligence deep learning applications. https://venturebeat.com/2019/10 verification solutions, has raised $10 million in seed funding. https://venturebeat.com/2019/10/24/incode-raises-10-million-to-verify-identities-with-ai Twitter now With the advent of AI, data access and accuracy are being improved even more How AI is transforming

    35420编辑于 2022-05-13
  • Go在AI对话上下文压缩处理上的实践

    这是因为大模型有上下文长度限制,对话越长,历史消息越多,就越容易超限。结合我的理解,这篇文章分享一下如何实现上下文压缩,让你的 AI 应用既能"记住"关键信息,又能节省成本。 为什么需要上下文压缩? 大模型的上下文窗口是有限的。GPT-3.5 只有 4K tokens,GPT-4 最多 32K,即 Claude 3 有 200K,看起来很长,但实际对话中,10 轮对话就可能消耗几千 Token。 一般建议 5-10 条。太小会丢失上下文,太大又起不到压缩效果。可以根据实际场景调整。 一个改进技巧: 系统消息(System Prompt)要始终保留。 它定义了 AI 的角色和行为准则,丢了会影响回复质量。 缺点也很明显: 早期的重要信息会被丢弃。比如用户一开始说了"我叫张三",过了 10 轮后 AI 就不知道了。 推荐的组合方案: 对话初期(1-10 轮):不做任何压缩,保留完整上下文。 对话中期(10-20 轮):启用滑动窗口,同时开始提取关键信息。

    31010编辑于 2026-03-02
  • 来自专栏设计模式

    AI 智能体上下文工程 4 大实用策略解析

    上下文工程是】“……一种精妙的艺术与科学,旨在为下一步操作的上下文窗口填充恰好所需的信息。” LLM应用中常见的上下文类型 在构建LLM应用时,我们需要管理哪些类型的上下文呢? ):上下文内容过多超出模型训练适应范围 - 上下文混淆(Context Confusion):冗余上下文影响响应结果 - 上下文冲突(Context Clash):上下文各部分信息相互矛盾 工具调用产生的上下文会在智能体的多轮交互中不断累积 鉴于此,Cognition公司强调了上下文工程的重要性: “上下文工程”……实际上是构建AI智能体的工程师的首要工作。 在AI工程师世界博览会上,西蒙·威利森(Simon Willison)分享了一个选择失误的例子:ChatGPT从记忆中获取了他的位置信息,并意外地将其注入到用户请求生成的图像中。 选择上下文——将信息拉入上下文窗口,辅助智能体执行任务。 压缩上下文——仅保留执行任务所需的tokens。 隔离上下文——拆分上下文,以帮助智能体执行任务。

    86111编辑于 2025-10-20
  • 来自专栏DotNet NB && CloudNative

    .NET + AI | 可控广播上下文相关的函数列表

    上下文匹配搜索:每次发起会话时,根据上下文信息在向量存储中搜索最匹配的函数。 模型调用:将匹配的函数传递给语言模型,用于生成更准确的响应。 Microsoft.SemanticKernel.Agents.Core,*-*" #r "nuget:Microsoft.SemanticKernel.Connectors.InMemory,*-*" #r "nuget:Microsoft.Extensions.AI 初始化 Kernel 通过 Kernel 实现 AI 服务的初始化,包括注册聊天模型和嵌入生成器: var builder = Kernel.CreateBuilder(); // 添加 Azure 代码如下: using Microsoft.Extensions.AI; ///

    /// 返回属于不同分类的函数列表。 ", "date": "2023-10-01", "rating": 5, "comment": "Great

    18800编辑于 2025-07-04
  • 来自专栏又见苍岚

    上下文

    所以业务上下文变更需要慎之又慎。 运行程序上下文 大家应该对一句话有印象:(进程/线程)上下文切换开销很大。这里的上下文一般指的就是运行程序的上下文。 这里的通信问题就是进程上下文切换开销大的缘故。 方法/类所在的上下文(作用域) 方法上下文可以理解为方法所在的作用域。类亦如此。 还有一些比较特殊的概念实际上也是和方法上下文相关。 比如worker语言特性中,需要监听message事件,这实质上,就是在当前上下文监听另一个上下文的状态。再比如回调函数。实际上是因为上下文变更后,对原有上下文访问的一种编程手段。 从这个角度看,闭包实质上也是对上下文的一种操作手段:返回一个函数,该函数在当前上下文可以操作闭包上的上下文。 执行上下文:当函数或方法被调用时,它会创建一个执行上下文,这个上下文包括了局部变量、参数、返回地址等信息。在JavaScript等语言中,执行上下文还包括this的值。

    72110编辑于 2024-07-31
  • 来自专栏AI uTools

    Autopilot:全球首个基于上下文引擎的 AI 办公助手

    Context Autopilot:全球首个上下文引擎驱动的 AI 办公助手 Context Autopilot 是由 Context 公司推出的一款 AI 办公助手,旨在通过先进的人工智能技术提升工作效率 上下文引擎使用:根据上下文推理与公司需求对齐,并能回忆与任务相关的所有信息。 主要功能特点 AI 驱动的操作系统: 基于 大语言模型(LLM),成为用户智能助手,处理并自动化工作任务。 关键技术 上下文引擎和记忆堆栈 上下文引擎:执行深度推理,挖掘信息中的联系,提供对知识体系的深入理解。 记忆堆栈:具有“状态保持”能力,支持动态上下文处理,使 Autopilot 能够自我优化。 推理与长上下文处理(Long Context Handling) 在长时间任务中保持任务的上下文一致性,优化推理能力,处理复杂任务。

    1.5K10编辑于 2024-11-18
  • AI大模型新资讯】从信息蜂房到上下文工程

    (3)AI游戏引擎不同于传统游戏引擎,AI游戏引擎是玩家想象力的“放大器”,任何人可以随心所欲“创造”游戏!AI引擎的崛起带动着生成式游戏的兴起与发展。 (4)质陪解决方案由中关村科金得助智能开发,创造性地融合成熟的AI大模型质检与陪练系统,推出了全面高效的“质陪解决方案”。智能质检采用大小模型结合的方式,对销售人员的销售行为进行全方位监测和分析。 (5)上下文工程上下文工程指通过为任务提供完整的背景信息,让大模型能够合理解决问题。在AI智能体的兴起发展过程中,上下文工程才是决定大多数AI智能体成败的关键而并非模型。 上下文工程致力于设计和构建动态系统而并非字符串,这些系统在恰当的时机提供信息和工具,从而让LLM拥有完成任务所需的一切。

    14620编辑于 2025-07-15
  • 来自专栏AI大模型应用开发炼丹房

    揭秘上下文工程+MCP:打造高效AI智能体的秘诀

    大模型其实根本不用懂 模型上下文协议(MCP)如今已成为构建AI智能体时“工具调用”的标准配置。但很多人误解了一点:你的大语言模型(LLM)并不需要理解MCP是什么。 如果你对上下文工程不是很清晰,我之前也整理过关于Agent上下文工程的工作原理,建议粉丝朋友自行查阅,以便更好的理解本文的分享内容:《图解Agent上下文工程,小白都能看懂》MCP 的作用,其实是帮助AI AI回复(可能包含工具调用请求)2. 用户问题(如“旧金山天气如何?”)2. 若需调用工具:标注工具ID、名称及参数3. 三、MCP:开发者的“工具万能接口” 模型上下文协议(MCP)的本质,是一种标准化方法,用于帮助AI智能体连接多种数据源,包括工具、提示语、资源、示例等。 四、回归上下文工程:MCP是来帮你减负的 “上下文工程”的核心在于为模型提供高质量的背景信息,以引导其生成更准确的回复。

    80251编辑于 2025-09-30
领券