昨天的GTC2026,黄仁勋说了一句意味深长的话:
"Mac and Windows are the operating systems for the personal computer. OpenClaw is the operating system for personal AI."
然后他又说:
"Every company in the world today needs to have an OpenClaw strategy. This is as big as HTML, as big as Linux."
全球市值最高的公司的 CEO,在他一年中最重要的演讲里,花了相当大的篇幅给一个开源小龙虾站台。
为什么?
部分原因大家都看得到:龙虾火了,GitHub 史上增长最快的开源项目,全球现象级产品。Nvidia 顺势发布 NemoClaw 企业栈,一行命令部署龙虾,加上安全沙箱和隐私管控,吃下企业级 Agent 的基础设施市场。
但这不是全部。
黄仁勋没说的那句话
昨天 keynote 还有一个数字:黄仁勋预计 Blackwell 和 Vera Rubin 芯片的订单到 2027 年将达到至少一万亿美元。去年的预估是五千亿,今年直接翻倍,而且他说"实际需求可能远超这个数"。
万亿美元的算力需求从哪来?
他给出的关键词是"推理的拐点已经到来"——AI 不再只是训练大模型,而是大规模地跑推理、干活、执行任务。
把这两件事放在一起看——一边是龙虾被封为"AI 的操作系统",一边是万亿美元的算力订单——中间的因果链就浮出来了:
Agent 是 Nvidia 的完美客户。
一个人跟 LLM聊天,一天消耗几万个 token。一只龙虾 24 小时运行,每 30 秒自动轮询一次,不断调模型、拆任务、调工具、写文件、读记忆——一天能烧掉几百万 token。
龙虾越好用,用的人越多。用的人越多,token 消耗越大。token 消耗越大,需要的算力越多。需要的算力越多,Nvidia 卖的芯片越多。
这让我想到一条老定律。
原版安迪比尔定律
Wintel时代,关于因特尔和微软有一句定律:"Andy gives, Bill takes away."
安迪(Andy Grove,Intel CEO)给的性能提升,比尔(Bill Gates,微软 CEO)的软件全部吃掉。Intel 每做出更快的芯片,Windows 就变得更臃肿、更吃资源,用户永远觉得电脑不够快,只好不断买新硬件。
这不是 bug,这是商业生态的共生逻辑:硬件进步创造性能余量,软件膨胀消耗掉这些余量,用户被夹在中间持续付费。这个循环驱动了 PC 产业二十年的增长。
现在,同样的结构正在 AI 领域重演。只不过角色变了:
Intel Nvidia(算力供给方)
Windows OpenClaw / Agent 生态(算力消耗方)
LLM 越来越强,上下文窗口越来越长,推理速度越来越快,成本越来越低——这是 Nvidia + 模型厂商"给"出来的性能余量。
然后龙虾把它全部"拿走"。
Agent 不会因为模型更快就节省 token。恰恰相反——模型越强,Agent 能干的事越多,调用越频繁,token 消耗越高。装更多 Skill、跑更多子 Agent、操作浏览器、7×24 小时不间断巡检……每一个新能力都在吃算力。
新安迪比尔定律:LLM 产生的,龙虾拿走。
老黄为什么给龙虾站台?
现在回头看,就很清楚了。
黄仁勋不是在做慈善,不是因为龙虾"酷"才给它站台,他是在推广自己的最佳分销渠道。
过去 Nvidia 的主要客户是训练大模型的公司——OpenAI、Google、Meta,数量有限,单笔订单大。但推理市场不一样,它是分散的、长尾的、持续性的。每一台跑着龙虾的 Mac mini,背后都连着一个或多个模型 API,持续消耗算力。
一千万台 Mac mini 跑着一千万只龙虾,每只每天消耗几百万 token——这就是一个规模惊人的推理算力市场。
所以他说"每家公司都需要 OpenClaw 策略"。翻译一下就是:每家公司都需要成为 Nvidia 的推理算力客户。
NemoClaw 的发布也是同样的逻辑:不是 Nvidia 要做 Agent 产品,而是 Nvidia 要确保企业在部署 Agent 时,用的是吃 Nvidia 算力的基础设施。一行命令装好龙虾,背后接着 Nvidia 的模型、Nvidia 的运行时、Nvidia 的安全栈。开源是手段,卖铲子才是目的。
(老黄挡住的是Skill)
SaaS 到 GaaS:软件的消费者变了
黄仁勋在 keynote 里还抛了一个概念,原话好像是:"Post-OpenClaw will turn IT from SaaS into GaaS with AI acting as service"
GaaS 没有标准定义,但意思很明确——从 Software as a Service 到 Agent as a Service。不再是人去用软件,而是 Agent 替人去用软件。
这个转变的底层逻辑是:软件的主要消费者从人变成了 AI。
过去做软件,首先考虑的是 UI 怎么设计、交互怎么顺畅、用户引导怎么做。未来很多软件的核心消费者是 Agent——它不需要漂亮的界面,只需要 API 和 MCP 接口。
就像过去两年的Coding领域,Copilot/Cursor 这些工具,还是"人在写代码、AI在辅助"。但Claude Code和龙虾指向的未来是:人说一句目标,Agent 自动拆任务、写代码、调试、部署。程序员还在,但他们不再是 IDE 的直接操作者——Agent 才是。
对普通用户意味着什么?
如果新安迪比尔定律成立,有几个推论:
Token 成本会持续下降(尽管近期似乎还变贵了),但你的总花费不会降。 模型越便宜,你会让龙虾干越多的事,总消耗反而上升。就像手机流量越来越便宜,但你的月账单没少过。
烧Token的能力是一种竞争力。龙虾烧Token的浪费,是你为AI认知交的学费。谁能消耗更多的Token,谁就代表更先进的生产力。
会用 Agent"比"会写代码"重要。 就像你不需要懂 Windows 内核才能用好电脑一样,你不需要会写代码才能让龙虾干活。但你需要知道怎么给它下目标、配工具、选模型、管流程。这是一种新的"操作系统素养"。
真正值钱的不是 Agent 本身,而是你喂给它的上下文。 一千万人用同一只龙虾、同一个模型,区别在于:谁的 USER.md 写得更清楚,谁的 Skill 配得更到位,谁的工作流设计更合理。龙虾是通用操作系统,你的配置、流程和数据才是竞争壁垒。
黄仁勋说了一半。
龙虾确实正在成为 AI 时代的操作系统——架构完整度、生态增长速度、企业参与深度都支撑这个判断。
但他没说的另一半是:这个操作系统最大的受益者不是用户,是 Nvidia 自己。每多一只龙虾上线,就多一台永不停歇的算力消费机器。
安迪给的,比尔拿走。LLM 产生的,龙虾拿走。
Nvidia 两边通吃。
我是AI全景图的David,这是OpenClaw系列的第11篇。还有几个OpenClaw群,比较热闹,欢迎来玩!