首页
学习
活动
专区
圈层
工具
发布
    • 综合排序
    • 最热优先
    • 最新优先
    时间不限
  • 从零搭建个人Wiki RAG:Karpathy范式的本地知识库

    Karpathy(OpenAI联合创始人、前特斯拉AI总监)最近提出了一个优雅的解法:LLM Wiki——不用向量数据库,不用传统RAG,让LLM自己维护一个Markdown知识库Karpathy的LLM Wiki是什么? 一句话:让LLM帮你维护一个结构化的Markdown知识库。 传统做法是这样的: 文档 → 分块 → Embedding → 向量数据库 → 检索 → LLM回答 Karpathy的做法是这样的: raw笔记 → LLM编译 → 结构化Wiki → 直接塞给LLM 一句话总结 Karpathy说:知识管理正在成为AI工作流的核心成本。用LLM Wiki + RAG,你可以在本地搭建一个真正可用的个人知识库——零API费用,完全离线,数据自己掌控。

    3.2K10编辑于 2026-04-14
  • 来自专栏有文化的技术人

    Karpathy LLM Wiki 实践:用知识编译替代 RAG,构建个人知识库

    Karpathy 提出了一个反直觉的思路:「为什么不在入库时就让 LLM 理解好?」 二、Karpathy 的核心思想:知识编译 Karpathy 的 LLM Wiki 架构,核心就一句话: ❝「"不要让 LLM 在查询时去理解原始文档,而是提前让 LLM 把文档'编译'成结构化的知识。 Schema 分为两个文件: AGENTS.md:全局行为规范,定义工作流(Ingest/Query/Lint)和通用约定 SCHEMA.md:实例级约束,定义页面模板、标签分类、质量阈值 「Schema 解决的核心问题:」 问题 没有 Schema 有 Schema 格式 混乱不统一 严格模板、标准结构 质量 长短不一、详略不同 质量稳定、可预测 维护 知识库逐渐混乱 知识库持续整洁 更强大的是—— 这意味着 Wiki 会通过使用不断"自我增长"——你问得越多,知识库越丰富。

    84610编辑于 2026-04-22
  • 来自专栏MixLab科技+设计实验室

    用Agent构建你的第二大脑:不用 RAG,用 Markdown 让 AI 替你整理知识#AgentOS

    Karpathy 的第二大脑秘密 3月底,前OpenAI 联合创始人 Andrej Karpathy 在 X 上发了两条长推,讲他如何用 LLM 构建个人知识库。 像编译代码一样编译知识 Karpathy 把他的整个工作流叫做"编译":把散乱的原材料,加工成有结构的知识体系[1][3]。 第一步是数据摄入。 Karpathy 的比喻是"像编译代码一样编译知识"[1][3]。 第三步是直接问答。当知识库积累到一定规模,他不再使用关键词搜索,而是直接用自然语言向 LLM 提问。 Karpathy 让 LLM 定期对知识库做"体检":找出不一致的地方,补充缺失的信息,建议新的研究方向。这借鉴了代码质量检查的概念——让知识库像代码一样,保持健康和一致。 Karpathy工作流本质上是一套让 AI 帮你完成整理环节的自动化方案,而你要做的是给它足够多的原材料,以及偶尔的"健康检查"指令。

    29710编辑于 2026-04-10
  • 基于知识库工作流的智能体实践

    注意,目前腾讯元器的智能体调用链路逻辑上,如果智能体只关联了知识库,没有关联插件、工作流的情况下,智能体每次问答都一定会参考知识库,不会经过function call做意图判断。 工作流是一种“流程图”式的低代码编辑工具,可以用来做一个“高级版”插件。在工作流里,可以任意编排插件、知识库、大模型节点的工作顺序和调用传参,从而精确控制智能体中部分任务的运行逻辑。 本文以蝴蝶兰养殖助手为例,上传饲养知识word文档到知识库,创建自定义的工作流,最后使用智能体调用工作流,并提供API方式调用智能体示例代码,方便自有系统对接大智能体。 二、 创建工作流并使用上面的知识库 工作流概览: 工作流详解: 先接收用户问题,然后经过大模型节点判断。 图片 如果返回“是”,则调用知识库节点,注意知识库选择刚才创建的“温室养花”。 最后在结束节点进行输出。 设计完接下来,点击右上角“测试”按钮调试工作流,注意各个节点的入参和出差是否正确。

    2.7K11编辑于 2024-10-18
  • 来自专栏机器学习与统计学

    基于大模型、SKills 的知识管理

    今天不聊新工具,聊点更高级的东西——三个巨佬的知识管理哲学 还有我自己的知识管理及内容生成工作流 Karpathy 昨天 Andrej Karpathy(斯坦福 PhD、OpenAI 创始成员、前特斯拉 Gemini 的百万 token 窗口,Claude 的 200K 上下文,处理这个量级的知识库绑绑有余。 Karpathy 说不需要 RAG,在这个规模下我同意 4. 用一张流程图来理解 Karpathy 的系统: Lex Fridman:把知识库变成跑步伙伴 Karpathy 发完推,Lex Fridman 秒回——他也有类似的系统。 、没消化过,那这个知识库再大也不是你的 Karpathy 最有远见的一句话 Karpathy 整个推文我认为最有远见的一句话: "随着仓库的增长,自然地也想考虑合成数据生成 + 微调,让你的 LLM 参考资料: Andrej Karpathy — X/Twitter 长推文,2026 年 4 月,关于 LLM 驱动的个人知识库系统 Lex Fridman — 对 Karpathy 推文的回复,关于混合前端和语音模式知识消费

    28020编辑于 2026-04-13
  • 来自专栏AI大模型

    Graphify知识图谱实测:为Claude Code注入结构化代码理解能力的完整指南

    它与Karpathy知识库工作流有什么关系? Karpathy知识库工作流为什么引发开发者关注?AndrejKarpathy近期在社交媒体上分享了他的个人知识库工作流,这一分享迅速引爆开发者社区。 Karpathy的方案提供了一种将碎片知识统一管理并持续更新的实践路径。受到这一工作流的启发,GitHub上在短时间内涌现了大量开源知识库项目。 •Wiki生成:可从图谱自动生成结构化的wiki文档下表对比了Karpathy原始工作流与Graphify在各个关键维度上的差异:维度Karpathy工作流Graphify数据收集手动放入raw文件夹自动检测 结语Graphify将AndrejKarpathy的知识库工作流从概念验证推进到了工程化产品。

    3.7K00编辑于 2026-04-09
  • 来自专栏技术人生黄勇

    490万浏览量的方案:用 LLM 构建持续更新积累的个人知识库

    Karpathy 发了一条推文,分享了他近期重点在用 AI 构建个人知识库: 用 LLM 构建和维护个人知识库,让它成为一个持续更新积累的 wiki。 编译式知识库 Karpathy 的思路不同。 不是在查询时检索原始文档,而是让 LLM 持续构建和维护一个 wiki。 一个结构化的、相互链接的 markdown 文件集合,基于你的原始素材。 LLM 完全拥有这一层 LLM 第三层 Schema(说明书) 一个文档(如 CLAUDE.md),告诉 LLM wiki 如何组织、遵循什么约定、摄入来源/回答问题/维护 wiki 时遵循什么工作流。 它告诉 LLM: wiki 如何组织(目录结构、命名约定) 摄入来源时遵循什么工作流 回答问题时如何查找和引用 如何维护一致性 # 知识库 Schema ## 这是什么 一个关于 [你的主题] 六、我使用知识库的过往 看到 Karpathy 这个思路,读到使用 Wiki 作为 LLM 产出,知识的组织形式时,我有一种醍醐灌顶的感觉,觉得有必要更新我的知识库构建方式。

    1.9K30编辑于 2026-04-09
  • 来自专栏CreateAMind

    软件2.0-Andrej Karpathy

    https://medium.com/@karpathy/software-2-0-a64152b37c35 Andrej Karpathy 人工智能主任特斯拉。 26K 92 以下 Andrej Karpathy 人工智能主任特斯拉。以前在OpenAI的研究科学家和在斯坦福大学的博士生。我喜欢在大型数据集上训练深度神经网络。

    75020发布于 2018-07-24
  • Karpathy 的 LLM Wiki:让 LLM 帮你维护一套个人 Wiki

    Karpathy的LLMWiki:让LLM帮你维护一套个人Wiki最近Karpathy发了一份gist,标题就叫LLMWiki。 这跟传统RAG的差别也就出来了:RAG每次问问题都重新找片段LLMWiki先把知识整理成稳定页面,再在这些页面上继续问换句话说,它把“当场拼答案”改成了“先把知识库存起来,再在库上工作”。 这份gist后面那层意思如果只用一句话概括,我会这么说:Karpathy在试图把“知识检索”改成“知识编译”。 这件事会直接影响:你怎么组织资料你怎么和LLM协作一个知识库会不会越用越值钱如果你最近也在用Obsidian、Notion、Roam、Logseq这类工具记长期材料,这份gist值得读一遍。 它讨论的是一种不同的知识工作流:你负责选资料、提问题、做判断LLM负责整理、链接、维护和持续更新这套分工一旦成立,知识库会从“存资料的地方”慢慢变成一个可持续生长的系统。

    95310编辑于 2026-04-11
  • 告别“信息孤岛”与“流程迷宫”:企业知识库+工作流程的智能共生系统

    今天,我们要探讨的,正是一个将二者融合的解决方案——企业知识库+工作流程的智能共生系统。 沉淀时刻:从“终点即遗忘”到“流程即积累”当一个“项目结项”流程走完最后一步“归档”时,系统会自动触发一个动作:将本次项目中最有价值的经验教训、复盘会议纪要、关键数据指标,自动归类并存入知识库的相应位置 这里运用了工作流自动化与自然语言处理(NLP) 技术,确保每一次流程的结束,不是终点,而是企业知识资产的又一个新起点。第三站:背后的技术核心,为何它如此“聪明”? 这个共生系统的“智能”,源于以下几项核心技术的融合:低代码/无代码工作流引擎: 这是系统的“骨架”,让业务人员能像搭积木一样,快速配置和修改流程,极大提升了系统的适应性和灵活性。 总结:从成本中心到价值引擎一个将知识库工作流程智能融合的系统,不再是一个被动的工具,而是一个主动创造价值的引擎。对员工: 它是随身的专家导师,扫清工作障碍,让员工专注于创造而非搜寻和跑腿。

    19410编辑于 2025-11-07
  • 来自专栏机器之心

    AI大牛Andrej Karpathy离开OpenAI

    机器之心报道 编辑:张倩、陈萍 Andrej Karpathy 又离职了! 看来,这一切对于Karpathy还不够有吸引力。 在Karpathy帖子的评论区,确实出现了一些比较有意思的「阴谋论」,比如有人说他是被马斯克派到OpenAI当间谍的,现在是时候回去了。 Andrej Karpathy个人经历 个人主页:https://karpathy.ai/ 2005-2009 年,Andrej Karpathy 本科就读于加拿大多伦多大学,主修计算机科学与物理,辅修数学 Karpathy 是 OpenAI 的创始成员和研究科学家。 Karpathy表示,新的视频已经在制作了。 这次的离开,相信 Karpathy 重新找回了自己的热情所在,我们也期待 Karpathy做出更多惊艳的研究成果。

    28710编辑于 2024-02-26
  • 来自专栏DeepHub IMBA

    Karpathy的LLM Wiki:一种将RAG从解释器模式升级为编译器模式的架构

    一份配置文档,告诉LLM wiki的结构规范、约定和工作流Karpathy称之为关键配置文件。主要是通过这个文件把LLM从一个通用聊天机器人转变为有纪律的wiki维护者。 Report: X pages created, Y pages updated, Z contradictions flagged Obsidian作为IDE Karpathy对自己实际工作流的描述, 这个交互循环把它和"批量处理文档生成知识库"区分开来。这是一个实时的、迭代式的系统,人的角色是导航、策展和判断,不是写作和归档。 IDE类比之所以精准,在于IDE不是被动的文本编辑器。 总结 Karpathy没有发明新技术,他在清晰阐述一个工作流模式,让LLM天生擅长的事——快速阅读、综合、交叉引用、一致地遵循约定——去接替人类一直需要但从未能持续做好的工作。 核心洞察不是"用LLM充当知识库"。知识工作中最乏味的那些事——归档、交叉引用、更新、保持一致性——恰恰是LLM可以长期执行而不退化的部分。

    92540编辑于 2026-04-15
  • 通过大模型 API 优化复杂工作流构建知识库的实践与突破

    本文将详细分享我如何通过大模型 API 优化复杂工作流,构建一个高效、智能的知识库。从需求分析、技术选型到具体实现,我将逐步展示这一过程,并附上相关代码,帮助读者理解并实践这一技术突破。 工作流管理:使用 Apache Airflow 管理复杂的工作流。​前端展示:使用 Flask 构建简单的 Web 界面。 5.1 使用 Apache Airflow 管理复杂工作流我们使用 Apache Airflow 管理知识库的构建和更新工作流。 render_template('index.html')if __name__ == '__main__': app.run(debug=True)第七部分:总结与未来展望通过大模型 API 的引入,我们成功优化了知识库构建的复杂工作流 附录:完整代码示例以下是一个完整的知识库构建工作流的代码示例,涵盖了数据采集、知识提取、存储、检索和前端展示。

    81610编辑于 2025-03-21
  • Obsidian 本地 AI 知识库实战指南

    https://gist.github.com/karpathy/442a6bf555914893e9891c11519de94fAndrejKarpathy(安德烈・卡帕西)可以说是当今全球最具影响力的深度学习 你去学习一下https://gist.github.com/karpathy/442a6bf555914893e9891c11519de94f在这个文件夹中搭建相关知识库知识库核心逻辑在这里我们了解下这个知识库的核心逻辑:根据Karpathy的理念,一个成熟的LLMWiki系统由三个核心数据层和两个辅助文件构成。 Knowledge/├──CLAUDE.md←Schema配置(知识库的"大脑")├──raw/│├──assets/←图片附件存放处│└──llm-wiki-karpathy-2026-04-04.md │├──obsidian.md│└──qmd.md├──sources/←来源摘要│└──llm-wiki-karpathy.md└──syntheses/←待填充(存放综合分析)我们可以用Obsidian

    17900编辑于 2026-04-23
  • 来自专栏AI

    基于腾讯元器搭建合同发票智能体:知识库+工作流的企业提效实践

    通过知识库增强专业问答能力,通过工作流实现合同条款的自动分析与优化建议生成。实测表明,该智能体能识别出合同中多个预留问题,包括多个人工审核容易遗漏的隐晦风险点。 工作流的整体设计:新建工作流时,有两个关键配置:名称和触发条件。名称要用"动词+名词"的格式,比如"优化合同条款",这样模型更容易理解什么时候该调用这个工作流。 然后开始分析风险点:4.3 合同优化测试(工作流)请求"优化这份合同的条款",触发工作流。 可以直接分享链接,也可以让用户扫码访问:从新建智能体到发布上线,整个过程大概花了两天时间,主要时间花在准备知识库文档和调试工作流上。 几个印象比较深的点:上手快:不需要写代码,界面操作为主,适合非技术背景的人调试方便:提示词编辑器、工作流调试器都支持实时预览,不用反复发布知识库好用:上传文档自动解析,还能显示回答的参考来源生态打通:一键发布到微信公众号

    2.6K214编辑于 2025-12-25
  • 来自专栏新智元

    大神Karpathy两小时AI大课文字版第一弹,全新工作流自动把视频转成文章

    前段时间,AI大神Karpathy上线的AI大课,已经收获了全网15万次播放量。 当时还有网友表示,这2小时课程的含金量,相当于大学4年。 更广泛地说,这样的工作流程可以应用于任何视频输入,自动生成各种教程的「配套指南」,使其格式更加便于阅读、浏览和搜索。 这听起来是可行的,但也颇具挑战。 地址:https://github.com/karpathy/minbpe/blob/master/lecture.md Karpathy表示,这是自己手动完成的任务,即观看视频并将其翻译成markdown 还有网友为Karpathy出谋划策: 「感觉很棘手,但使用LangChain可能是可行的。 参考资料: https://x.com/karpathy/status/1760740503614836917?s=20

    73810编辑于 2024-02-26
  • 我用小龙虾搭了一套内容编译系统——8万字文章10分钟变素材

    直到我看到Karpathy的一条推文。 Karpathy是谁?OpenAI联合创始人,前特斯拉AI负责人。他说了一句话让我直接坐起来: "知识库不该是仓库,应该是编译器。" 什么意思? 一个OpenAI联合创始人,不写代码了,在搭知识库。 这让我开始重新审视自己的内容创作流程。 我之前是怎么做的 我有一个小龙虾叫阿策,帮我管理公众号、跟进项目进度、做信息雷达。 Karpathy给了答案:缺一个"编译"环节。 编译器长什么样 我花了大概两个小时,和阿策一起搭了一套"知识编译器"。 核心流程就三步: 第一步:丢链接,自动读取。 第一版不需要完美——Karpathy的原话是"它不需要一次就完美,它需要被使用,然后在使用中进化"。 最后一件事 搭完这套系统后,我最大的感触不是"效率提高了"。 Karpathy说得对:知识库不是仓库,是编译器。 仓库让人焦虑(永远存不完),编译器让人安心(用的时候编译就行)。 你缺的不是更多的时间去阅读,而是一个把阅读变成写作素材的编译工序。

    12910编辑于 2026-04-09
  • 来自专栏全栈程序员必看

    java jbpm工作流_jbpm工作流

    一、JBPM(java business process manager) 1、工作流管理流程 O—>定义工作流(使用流程设计器生成,png和xml文件,分别面向用户和系统) —>执行工作流(核心对象: (deployment):一次部署一个或者多个文件到数据库中(png,xml,zip) 流程定义(processDefinition):获得并解析xml,解析xml文件中的内容,内容即流程定义的规则,工作流 throwsException { System.out.println(“触发了事件监听,当前活动为:”+execution.getActivity()); } } 3.jbpm的具体过程实现 //获取工作流文件

    1.8K10编辑于 2022-09-30
  • 来自专栏全栈程序员必看

    activiti工作流开发_flowable工作流

    深入理解Activiti工作流 Activiti作为一个流行的开源工作流引擎,正在不断发展,其6.0版本以API形式提供服务,而之前版本基本都是要求我们的应用以JDK方式与其交互,只能将其携带到我们的应用中 ,而API方式则可以服务器独立运行方式,能够形成一个专网内工作流引擎资源共享的方式。

    2.2K40编辑于 2022-11-08
  • 把 PDF 变成 AI 能真正“读懂”的知识:一套可落地的科研知识库工作流

    本文将分享一套从PDF文献→结构化文本→AI知识库→可检索/可追溯智能对话的完整工作流,帮助你构建真正的科研“第二大脑”。 因此,构建知识库的第一步,是把PDF转换为AI友好的Markdown格式。第一步:基于MinerU的高质量本地转换为了解决学术PDF转换质量不稳定的问题,我们采用基于MinerU的本地转换方案。 Zotero-KbaseManager,你可以实现一键环境部署:在转换阶段,你可以指定Zotero的数据目录,批量将PDF转换成干净的Markdown语料:第二步:用CherryStudio搭建RAG知识库转换好 1.配置模型服务首先,在CherryStudio中配置API服务(例如使用SiliconFlow提供的强大算力):2.建立科研知识库为了实现高精度的检索,建议采用以下配置组合:嵌入模型(Embedding 这套工作流不仅是工具的堆砌,更是将“静态存档”转化为“可计算资产”的过程。如果你也深受PDF阅读之苦,不妨今天就开始动手搭建。想获取文中提到的工具安装包或配置模版?欢迎在评论区留言或私信交流。

    74110编辑于 2026-01-06
领券