Anthropic又崩了。
4月16号,Claude、API、Claude Code集体宕机。这已经是4月初以来,第7次大规模服务中断。
一家估值接近3800亿人民币的公司,估值高得吓人,技术强得离谱,但服务稳定性却像是个草台班子。
你可能会说,谁还没个服务器问题?但问题是,才半个月。7次。
今天拆解一下,Anthropic到底怎么了,以及这件事背后藏着3个普通用户不知道的真相。
真相一:AI推理的成本,远比你想象的夸张
很多人以为ChatGPT、Claude的思考就像人脑一样,耗电微乎其微。
错了。
Anthropic自己在财报里承认,单次复杂推理消耗的算力,相当于传统服务器1-2个月的负载。什么意思?
你用Claude问一个需要深度思考的问题,它后台跑掉的算力,够一家小公司服务器跑一两个月。
这就不难理解为什么Anthropic的服务总是挤牙膏了。
不是他们不想扩大规模,是推理成本太贵了。行业内估算,每次深度对话的成本在0.1到1美元之间。你免费用的那些API调用,背后烧的都是真金白银。
所以当你看到Claude又宕机了,别急着骂运维。可能是他们又在限流保命了。
真相二:高估值不等于高稳定性,技术强大不等于服务靠谱
Anthropic估值3800亿,听起来是个庞然大物。但仔细看他们的技术架构,就会发现一个有意思的矛盾:
他们用的是自研推理架构,号称比传统Transformer更高效。但问题在于,这套架构在快速扩展时,有几个硬伤:
显存带宽瓶颈。推理过程中需要大量的KV缓存,显存带宽跟不上,请求一多就卡死。
KV缓存爆炸。上下文越长,缓存越大,内存直接爆炸。
扩展性挑战。自研架构的扩展方案不够成熟,紧急扩容时总是出问题。
说白了,Anthropic在用一套实验室级的架构,硬撑着工业级的并发量。
这不是他们技术不行,恰恰相反,说明AI推理的技术难度,远超我们普通用户的认知。
但不管怎么说,服务不稳定是事实。用户不会为技术突破买单,大家要的是能用、好用、稳定用。
真相三:宕机的真正受害者,不是Anthropic
Anthropic宕机7次,最慌的不是他们自己,是那些把Claude当核心工具的企业。
据我了解,已经有不少公司开始去Claude化:
边缘计算方案加速落地
开源模型替代需求上升
多模型兜底成为行业共识
有个做AI应用的朋友跟我吐槽,他们产品完全依赖Claude API,上个月宕机了3次,每次都是高峰期。用户投诉炸了,他们只能干等着。
以后打死不敢all in单一大模型了。他说。
这件事给所有AI从业者敲了个警钟:AI基础设施的脆弱性,比我们以为的要严重得多。
你以为付费就是VIP保障?错了。在算力挤兑面前,大客户也得排队。
写在最后
Anthropic的技术确实强。Claude Opus 4.7的编程能力屠榜,视觉能力提升3倍,定价还没变。这是一家值得尊敬的公司。
但技术强大和服务靠谱是两码事。
不要依赖单一工具。Claude崩了还有GPT,GPT崩了还有Gemini。多几个备选,关键时刻能救命。
关注服务稳定性。大模型能力固然重要,但能用才是前提。看评测别只看benchmark,跑分再高,宕机也是白搭。
理解AI的成本。AI不是免费的午餐,每一句对话背后都是算力和金钱。厂商亏本卖服务的时代,可能快要结束了。
最后抛个问题:你用的AI工具,最近稳定吗?有没有遇到过关键时候崩掉的糟心事?
评论区聊聊。