首页
学习
活动
专区
圈层
工具
发布

估值3800亿的AI巨头,半个月崩了7次

Anthropic又崩了。

4月16号,Claude、API、Claude Code集体宕机。这已经是4月初以来,第7次大规模服务中断。

一家估值接近3800亿人民币的公司,估值高得吓人,技术强得离谱,但服务稳定性却像是个草台班子。

你可能会说,谁还没个服务器问题?但问题是,才半个月。7次。

今天拆解一下,Anthropic到底怎么了,以及这件事背后藏着3个普通用户不知道的真相。

真相一:AI推理的成本,远比你想象的夸张

很多人以为ChatGPT、Claude的思考就像人脑一样,耗电微乎其微。

错了。

Anthropic自己在财报里承认,单次复杂推理消耗的算力,相当于传统服务器1-2个月的负载。什么意思?

你用Claude问一个需要深度思考的问题,它后台跑掉的算力,够一家小公司服务器跑一两个月。

这就不难理解为什么Anthropic的服务总是挤牙膏了。

不是他们不想扩大规模,是推理成本太贵了。行业内估算,每次深度对话的成本在0.1到1美元之间。你免费用的那些API调用,背后烧的都是真金白银。

所以当你看到Claude又宕机了,别急着骂运维。可能是他们又在限流保命了。

真相二:高估值不等于高稳定性,技术强大不等于服务靠谱

Anthropic估值3800亿,听起来是个庞然大物。但仔细看他们的技术架构,就会发现一个有意思的矛盾:

他们用的是自研推理架构,号称比传统Transformer更高效。但问题在于,这套架构在快速扩展时,有几个硬伤:

显存带宽瓶颈。推理过程中需要大量的KV缓存,显存带宽跟不上,请求一多就卡死。

KV缓存爆炸。上下文越长,缓存越大,内存直接爆炸。

扩展性挑战。自研架构的扩展方案不够成熟,紧急扩容时总是出问题。

说白了,Anthropic在用一套实验室级的架构,硬撑着工业级的并发量。

这不是他们技术不行,恰恰相反,说明AI推理的技术难度,远超我们普通用户的认知。

但不管怎么说,服务不稳定是事实。用户不会为技术突破买单,大家要的是能用、好用、稳定用。

真相三:宕机的真正受害者,不是Anthropic

Anthropic宕机7次,最慌的不是他们自己,是那些把Claude当核心工具的企业。

据我了解,已经有不少公司开始去Claude化:

边缘计算方案加速落地

开源模型替代需求上升

多模型兜底成为行业共识

有个做AI应用的朋友跟我吐槽,他们产品完全依赖Claude API,上个月宕机了3次,每次都是高峰期。用户投诉炸了,他们只能干等着。

以后打死不敢all in单一大模型了。他说。

这件事给所有AI从业者敲了个警钟:AI基础设施的脆弱性,比我们以为的要严重得多。

你以为付费就是VIP保障?错了。在算力挤兑面前,大客户也得排队。

写在最后

Anthropic的技术确实强。Claude Opus 4.7的编程能力屠榜,视觉能力提升3倍,定价还没变。这是一家值得尊敬的公司。

但技术强大和服务靠谱是两码事。

不要依赖单一工具。Claude崩了还有GPT,GPT崩了还有Gemini。多几个备选,关键时刻能救命。

关注服务稳定性。大模型能力固然重要,但能用才是前提。看评测别只看benchmark,跑分再高,宕机也是白搭。

理解AI的成本。AI不是免费的午餐,每一句对话背后都是算力和金钱。厂商亏本卖服务的时代,可能快要结束了。

最后抛个问题:你用的AI工具,最近稳定吗?有没有遇到过关键时候崩掉的糟心事?

评论区聊聊。

  • 发表于:
  • 原文链接https://page.om.qq.com/page/OXXKIuvHS79oMB7Vp9DtAewg0
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

相关快讯

领券