
现在每天获取信息的途径就是刷各种推文。Twitter、RSS、HackerNews、Reddit、GitHub 各个平台来回切换,生怕错过什么重要信息。
结果刷了一两个小时,真正有用的没记住几个,时间倒是全耗进去了。
这种信息过载的焦虑,估计很多人都有同感。一方面想保持对行业动态的敏感度,另一方面又实在没有精力每天泡在各种信息流里。
更糟的是,现在的算法推荐越来越“聪明”,你点过什么,它就玩命给你推什么,结果视野越来越窄,还浪费了大量时间。
但是昨天我发现了一个开源项目:ClawFeed,可以帮助我们解决这个问题。

一个 AI 驱动的新闻摘要工具。它的理念很简单:把成千上万的信息源聚合起来,用 AI 筛选出真正重要的内容,让你“停止无意义的刷信息流,开始真正获取知识”。
ClawFeed 是由 Kevin He 开发的一个开源 AI 新闻摘要工具。它的口号是 "Stop scrolling. Start knowing."(停止刷,开始了解)。

它的名字很有意思——"Claw" 意为"爪子",就像一只敏捷的爪子,帮你从信息的海洋中精准抓取真正重要的内容。
它解决的核心问题就是信息过载。现在的信息源太多了:
想全部看完根本不可能,但只看其中一个又怕错过重要内容。
ClawFeed 的思路很直接:把所有这些信息源都聚合起来,然后用 AI 进行筛选、摘要,最后给你一份结构化的摘要报告。
你可以选择 4 小时、每日、每周、每月等不同频率的摘要,根据自己的需求来。
而且它不仅可以独立使用,还可以作为 OpenClaw 或 Zylos 的技能来运行,集成到更大的 AI 代理系统中。
1、多频率摘要
ClawFeed 提供了四种不同频率的摘要选项:4 小时、每日、每周、每月。
这样你可以根据自己的时间安排和信息需求来选择:
2、多源聚合
支持的信息源非常丰富:
基本上你能想到的信息源,它都支持了。
3、Source Packs
这是一个很有意思的功能。你可以把自己精心挑选的一组信息源打包成一个 "Source Pack",分享给社区。
其他人可以一键安装你分享的 Source Pack,直接订阅你推荐的所有信息源。
这对于建立垂直领域的信息源特别有用。比如做 AI 的,可以分享一个“AI 大佬信息源包”;做前端的,可以分享一个“前端技术精选包”。
大家互相分享,就能快速建立起高质量的信息网络。
4、Mark & Deep Dive
看到感兴趣的内容,可以标记下来,然后让 AI 进行深度分析。
这样遇到重要的新闻或文章,不仅能看到摘要,还能让 AI 帮你深入挖掘背后的信息、分析趋势、联系相关内容。
5、智能筛选
ClawFeed 提供了可配置的内容过滤规则,可以自定义哪些内容是你感兴趣的,哪些是噪音。
它还会根据你 feed 的质量分析,给你推荐应该关注或取消关注的内容源,帮你持续优化信息质量。
首先,如果你想先体验一下,可以直接访问在线演示,有现成的 AI 信息源可使用。
在线体验:https://clawfeed.kevinhe.io

当然 ClawFeed 也有多种安装方式,大家可以根据自己的情况选择。
方式一:ClawHub(推荐)
如果你在用 ClawHub,这是最简单的方式:
clawhub install clawfeed方式二:OpenClaw Skill
如果你在用 OpenClaw:
cd ~/.openclaw/skills/
git clone https://github.com/kevinho/clawfeed.gitOpenClaw 会自动检测到 SKILL.md 并加载这个技能。然后代理就可以通过 cron 生成摘要、提供仪表盘、处理书签命令了。
方式三:Zylos Skill
如果你在用 Zylos:
cd ~/.zylos/skills/
git clone https://github.com/kevinho/clawfeed.git方式四:独立部署
如果你想独立运行:
git clone https://github.com/kevinho/clawfeed.git
cd clawfeed
npm install配置说明
① 复制并编辑环境配置:
cp .env.example .env然后编辑 .env 文件,配置你的设置。
主要的环境变量:
变量 | 描述 | 是否必需 | 默认值 |
|---|---|---|---|
GOOGLE_CLIENT_ID | Google OAuth 客户端 ID | 否* | - |
GOOGLE_CLIENT_SECRET | Google OAuth 客户端密钥 | 否* | - |
SESSION_SECRET | 会话加密密钥 | 否* | - |
API_KEY | 创建摘要的 API 密钥 | 否 | - |
DIGEST_PORT | 服务器端口 | 否 | 8767 |
ALLOWED_ORIGINS | CORS 允许的源 | 否 | localhost |
* 认证功能必需。如果不配置 OAuth,应用会以只读模式运行。
② 启动服务
配置好后,启动 API 服务器:
npm startAPI 会在 http://127.0.0.1:8767 上运行。
开发模式
如果你想在开发时使用自动重载:
npm run dev认证设置(可选)
如果你想启用 Google OAuth 登录:
https://yourdomain.com/api/auth/callback.env 中设置凭证自定义配置
你还可以自定义一些内容:
templates/curation-rules.md 来控制内容过滤templates/digest-prompt.md 来自定义 AI 输出格式API 接口
ClawFeed 提供了完整的 REST API,所有接口都以 /api/ 为前缀。
摘要接口
方法 | 端点 | 描述 | 认证 |
|---|---|---|---|
GET | /api/digests | 列出摘要 ?type=4h&limit=20&offset=0 | - |
GET | /api/digests/:id | 获取单个摘要 | - |
POST | /api/digests | 创建摘要 | API Key |
认证接口
方法 | 端点 | 描述 | 认证 |
|---|---|---|---|
GET | /api/auth/config | 检查认证可用性 | - |
GET | /api/auth/google | 开始 OAuth 流程 | - |
GET | /api/auth/callback | OAuth 回调 | - |
GET | /api/auth/me | 获取当前用户信息 | 是 |
POST | /api/auth/logout | 登出 | 是 |
书签接口
方法 | 端点 | 描述 | 认证 |
|---|---|---|---|
GET | /api/marks | 列出书签 | 是 |
POST | /api/marks | 添加书签 { url, title?, note? } | 是 |
DELETE | /api/marks/:id | 删除书签 | 是 |
信息源接口
方法 | 端点 | 描述 | 认证 |
|---|---|---|---|
GET | /api/sources | 列出用户的信息源 | 是 |
POST | /api/sources | 创建信息源 { name, type, config } | 是 |
PUT | /api/sources/:id | 更新信息源 | 是 |
DELETE | /api/sources/:id | 软删除信息源 | 是 |
GET | /api/sources/detect | 从 URL 自动检测信息源类型 | 是 |
Source Packs 接口
方法 | 端点 | 描述 | 认证 |
|---|---|---|---|
GET | /api/packs | 浏览公开的 Source Packs | - |
POST | /api/packs | 从你的信息源创建 Pack | 是 |
POST | /api/packs/:id/install | 安装 Pack(订阅其信息源) | 是 |
Feed 接口
方法 | 端点 | 描述 | 认证 |
|---|---|---|---|
GET | /feed/:slug | 用户的摘要 feed(HTML) | - |
GET | /feed/:slug.json | JSON Feed 格式 | - |
GET | /feed/:slug.rss | RSS 格式 | - |
ClawFeed 这个项目完美击中了现代人的痛点:信息过载。但信息过载不是技术问题,而是注意力管理的问题。
它的价值在于,它帮我们建立了一道"信息防火墙",让我们从被动的信息接收者,变成主动的信息筛选者。
正如它的 slogan 所说:"停止无意义的刷信息流,开始真正获取知识。"
它不是简单地把信息推给你,而是帮你筛选、摘要,让你只看真正重要的内容。
如果你也厌倦了无意义的刷信息流,想把时间花在真正获取知识上,不妨试试 ClawFeed。它可能会改变你获取信息的方式。
GitHub:
https://github.com/kevinho/clawfeed

如果本文对您有帮助,也请帮忙点个 赞👍 + 在看 哈!❤️
在看你就赞赞我!
