若非长期观察大模型产业动向,许多人未必会对Anthropic留有深刻印象。这家公司由一批离开OpenAI的研究人员联合创立,长期以AI安全、企业级部署和可靠交付作为核心叙事;在公众视野中,其曝光度远不及OpenAI,然而在模型公司、云平台与芯片供应商之间,Anthropic的分量这几年却愈发举足轻重。
正因为它平时鲜少站上聚光灯,最近这段时间围绕它接连传出的几条消息才更值得串联来看:谷歌与博通宣布扩大合作,拟为其备足多吉瓦下一代算力;围绕谷歌定制芯片的长期供给安排同步浮出水面;CoreWeave签下多年云容量协议;与此同时,Anthropic还在评估自研AI芯片的可行性。
单独来看,这些不过是几桩合作;放在一起审视,却像一场正在成形的抢位之争。眼下争相围绕Anthropic展开布局的,已不只是几笔云订单,而是谷歌TPU、AWS Trainium、CoreWeave的英伟达云以及潜在自研芯片这几条原本并不完全重合的供给路线,开始同时竞逐进入同一家模型公司的长期体系。谁能与Anthropic建立深度绑定,争的不仅是当下营收,而是未来数年一条芯片路线、一种云平台运作方式能否真正被顶尖模型公司写入生产环境。也正因如此,Anthropic不再只是上游的一个客户,而是正在成为半导体产业重新配置长期供给的核心坐标。
01多方争抢Anthropic
要理解Anthropic为何突然成为上游各方争夺的焦点,首先要看它在商业层面已长成何种体量。2026年2月,Anthropic宣布完成300亿美元G轮融资,投后估值达3800亿美元,年化收入运行率披露为140亿美元;到4月初,这一数字已突破300亿美元,年消费超过100万美元的企业客户突破1000家。这意味着,Anthropic的算力需求不再是某次模型训练带来的阶段性高峰,而是与持续增长的企业合同、付费订阅和长期产品使用深度绑定。
因此,谷歌、AWS与CoreWeave围绕Anthropic展开的竞争,与其说是销售层面的角力,不如说是供给路线的对决。谷歌在4月6日宣布,将联合博通为Anthropic提供多吉瓦下一代TPU容量;早在2025年10月,Anthropic就计划将谷歌云技术的使用规模扩展至最高100万颗TPU,预计2026年新增超过1吉瓦容量。与此同时,谷歌与博通之间围绕定制AI芯片的长期安排也进一步浮现,其中包含约3.5吉瓦面向Anthropic的AI算力。这件事的产业意义远不止谷歌争取到一家大客户,它意味着TPU这种原本深度服务于谷歌内部体系的架构,正借助Anthropic这样的头部外部用户,向平台化供给迈出实质性一步。
AWS的逻辑与此类似。Anthropic长期将亚马逊视为主要云服务商和训练合作伙伴,双方在Project Rainier上的协作持续推进。Project Rainier已部署接近50万颗Trainium2芯片,预计到2025年底,Claude将运行在逾百万颗Trainium2芯片之上。对AWS而言,Trainium若要真正站稳脚跟,就不能只停留于成本叙事或内部验证,而必须进入前沿模型公司的主生产环境——Anthropic是否将关键负载真正压上去,本身就是对这条芯片路线最直接的现实检验。
CoreWeave则代表了另一条更贴近英伟达生态的弹性供给路线。其与Anthropic签署的多年协议,相关算力将优先服务Claude系列模型负载。再结合Anthropic对自研AI芯片的早期探索,以及联合Fluidstack斥资500亿美元在美国建设AI基础设施、拟在得州和纽约建造面向自身工作负载的数据中心等布局,一幅更完整的图景逐渐清晰:Anthropic一方面在多个既有平台间调配容量,另一方面也在将算力问题持续向数据中心和芯片定义层推进。对上游供应链而言,此类客户的核心意义在于,它不会轻易被锁定于单一平台,而会持续推动不同架构、不同云平台和不同数据中心组织方式同时参与竞争。
02从芯片需求到基础设施需求
倘若Anthropic只是一家训练模型的实验室,那么它对半导体产业的价值大概也只停留在”谁能为其提供更多GPU”的层面。但真正改变问题性质的,是其产品结构与客户构成,正将上游需求从短期采购演变为长期、稳定且日趋复杂的基础设施需求。
Anthropic明确表示,Claude不依赖广告变现,主要收入来自企业合同与付费订阅;Claude的定位更多指向工作、编程与复杂任务,而非依靠停留时长换取流量收入。这一商业模式决定了,Anthropic的算力消耗将越来越多地来自企业工作流,而非偶发性的消费爆款。截至2026年2月,财富10强中已有8家是Claude客户,年消费超过10万美元的客户数量同比增长近7倍。对半导体产业来说,这意味着对面的不是一批短周期试用者,而是一批正在将AI接入内部系统、并愿意持续付费的大型企业。
Claude Code是其中最具代表性的抓手。Anthropic在2025年8月将Claude Code与Team、Enterprise方案深度整合,同步推出Compliance API、组织级支出控制、使用分析、策略设置和文件访问限制等企业能力。到2026年2月,Claude Code年化收入运行率已超25亿美元,企业使用占比超过一半。这意味着,Claude Code已不再只是一个”会写代码”的功能点,而进入了预算、权限、审计与组织管理均需被认真对待的企业软件层面。对上游而言,这类业务最关键的变化是:需求趋于持续,且对稳定交付的依赖远超过去在模型发布期的单次峰值。
Anthropic的Managed Agents则将这一变化进一步推深。这项托管服务面向长周期agent任务,核心问题已不再局限于模型推理本身,而是会话持久化、工具调用、沙箱隔离、凭证安全与故障恢复。随着Claude Code逐步从本地交互式使用走向后台长时代理工作,任务时长从几分钟延伸至更长区间,对远程环境、隔离工作区和多代理并行的支持要求也随之提升。其产业含义是直接的:顶尖模型公司的需求,正将芯片竞争从”谁能提供训练卡、推理卡”推向”谁能提供长期运行时、隔离环境与可恢复系统”。
企业分发网络则让这种需求进一步沉淀。2026年3月,Anthropic推出Claude Partner Network,承诺投入1亿美元支持咨询公司与服务商推动企业落地,并强调Claude是当时唯一同时上架AWS、谷歌云和微软三大云平台的前沿模型。2025年12月,Anthropic与Snowflake达成2亿美元多年协议,Claude通过多云平台覆盖超过12600家全球客户;2026年1月,安联与Anthropic签署全球合作协议,Claude进入其内部AI平台,覆盖全球数千名开发者,并参与高度合规的保险业自动化流程。将这些信息汇聚来看,Anthropic对上游的价值不仅在于”量大”,更在于”形态清晰”——它的模型正在进入数据平台、开发流程与高监管工作流,上游因此必须为多年容量、稳定兑现率和复杂部署环境提前做好准备。
03与OpenAI的比较
将视角拉远便会发现,Anthropic的重要性并不在于它像不像另一个OpenAI,而在于它提供了一种组织上游供给的不同样本。OpenAI当前的动作,更像是在直接主导基础设施本身。“星际之门”计划由软银、OpenAI和甲骨文联合推进,OpenAI预计将在约五年内向甲骨文采购3000亿美元算力。随着新一轮扩容推进,Stargate在建容量已超5吉瓦,可运行逾200万个芯片,美国本土数据中心建设规模持续扩大。
芯片层面,OpenAI同样在向底层延伸。其计划于2026年推出与博通合作的首款AI芯片,优先供内部使用;同时并用AMD与英伟达芯片,以分散供应并压低成本。另一个信号则显示,OpenAI并非简单地无限扩容,而是在资本节奏、站点安排和硬件路线之间持续调整,将原定部分新增容量迁移至其他园区兑现。换言之,OpenAI更主动地将自身置于数据中心、芯片路线和资本开支的核心位置。
Anthropic的路径截然不同。它没有像OpenAI那样亲自统筹一整块基础设施版图,而是通过企业收入、多平台部署、产品深入工作流和长期容量合同,让谷歌TPU、AWS Trainium、CoreWeave GPU云以及潜在自研芯片围绕自身展开竞争。这两条路径表面各异,传递给算力厂商的信号却高度一致:决定下一阶段胜负的,已不只是单颗芯片性能,也不只是某家云厂商手中的卡量,而是谁更能将芯片、机架、云平台、数据中心、企业产品和长期客户合同组织成稳定兑现的完整系统。
04结语
若仅将Anthropic视为OpenAI之外的另一家明星模型公司,便会低估这轮变化的深度。它真正重要的地方在于,已将自身打造成一种稀缺客户:既能持续消耗最先进算力,又能将模型嵌入企业软件、开发流程和高合规行业,同时保留在多条基础设施路线间重新分配负载的主动权。对谷歌、AWS、CoreWeave乃至潜在的自研芯片项目而言,Anthropic不只是收入来源,更是验证路线、锁定产能、争取未来标准的关键样本。
将它与OpenAI放在一起审视,轮廓会更清晰。OpenAI向上游深处挺进,直接组织数据中心、资本开支和芯片路线;Anthropic则从下游企业使用反向推回上游,将自己变成多条供给路线都必须争取的长期客户。
在算力供应的下一阶段,最具价值的或许不只是更先进的芯片,也不是某家云手里多出的几万张卡,而是谁能将芯片、云、数据中心与真实客户需求稳定地串联成一套长期供给系统。围绕Anthropic展开的争夺,不过是这场重排最早、也最清晰的一次预演。