原标题:ASIC崛起,英伟达的王座还稳吗?
“我们为谷歌的成功感到高兴——他们在AI领域取得了巨大进步,我们也将继续向谷歌提供产品。英伟达目前*行业一代——我们是*一个可以运行所有AI模型、并在各种计算场景中通用的平台。”
11月25日,英伟达在社交平台X上的这番声明,被视为对谷歌TPU近期备受关注的直接回应。
就在声明前一天,有消息传出Meta正考虑从2027年开始在其数据中心部署谷歌的TPU,这一潜在交易金额可能高达数十亿美元。受此影响,英伟达股价一度重挫逾7%,市值蒸发近3500亿美元。这一市场波动清晰地表明,AI算力领域正迎来一场静默而深刻的变革。
在英伟达GPU看似垄断的市场中,一股新生力量正悄然崛起。OpenAI开始租用谷歌的TPU芯片为其ChatGPT提供算力支持,亚马逊宣布其Trainium2芯片性能价格比优于其他硬件30%到40%,博通和Marvell的AI业务收入暴涨,一个明确的信号正在释放:ASIC的时代,已经到来。
01
ASIC芯片的崛起与繁荣
2025年,全球ASIC芯片市场迎来爆发式增长。据中商产业研究院数据,2024年全球ASIC芯片市场规模已约达120亿美元,到2030年,这一数字有望超过500亿美元。
长期以来,英伟达凭借其GPU和CUDA生态,在AI芯片市场占据了超过90%的份额。 然而,谷歌TPU作为ASIC芯片的代表,正被视为英伟达Blackwell芯片的可行低成本替代方案,逐渐改变市场竞争格局。在AI模型训练成本呈指数级增长的今天,通用GPU虽然灵活,但其本质上仍是为图形渲染设计的硬件,在面对神经网络的特定计算模式时,存在大量的效率损失。
TPU和GPU都能处理训练AI模型所需的大量计算,但实现方式截然不同。英伟达的GPU最初为渲染视频游戏图像而开发,通过数千个计算“核心”并行处理多项任务。而TPU专门为矩阵乘法这类AI相关工作而构建,这是训练神经网络的主要操作。
专用与通用,成为ASIC与GPU的核心差异。英伟达在声明中强调,其芯片相比谷歌TPU等专用集成电路芯片提供“更高的性能、多功能性和互换性”,后者通常只为单一公司或单一功能设计。
谷歌最新版本的TPU名为Ironwood,于今年4月发布,采用液冷设计,专为运行AI推理工作负载而设计。它有两种配置:256个芯片的集群,或更大的9216个芯片集群。TPU在某些AI工作上可能表现优于GPU,因为谷歌可以“去除芯片上许多不适合AI的其他部分”,使其能耗更低、运营成本更低。
先进封装技术成为ASIC发展的重要支撑。根据TrendForce集邦咨询研究,随着云端服务业者加速自研ASIC,为整合更多复杂功能的芯片,对封装面积的需求不断扩大。已有CSP开始考量从台积电的CoWoS方案,转向英特尔的EMIB技术。EMIB拥有数项优势:结构简化,舍弃昂贵且大面积的中介层;热膨胀系数问题较小;封装尺寸也较具优势。随着谷歌决定在2027年TPUv9导入EMIB试用,Meta亦积极评估规划用于其MTIA产品,EMIB技术有望为英特尔IFS业务带来重大进展。
02
博通与Marvell,双足鼎立
在ASIC定制芯片的繁荣背后,两大巨头成为*赢家:博通和Marvell。 这两家公司已形成近乎垄断的双寡头格局,合计占据ASIC市场超过60%的份额。
博通作为*霸主,单独拿下55-60%的市占率。从业绩就能直观感受到它的强势 ——Q2 财报里,AI 业务收入直接突破 44 亿美元,同比增长 46%,其中定制 AI 加速器还实现了两位数增长,这种增速在成熟芯片企业里相当亮眼。更关键的是它和大客户的深度绑定,最典型的就是与谷歌的合作:从谷歌*代 TPU 芯片开始,博通就全程参与设计和制造,现在双方合作已经推进到 3nm 工艺的第六代 TPU,2023 年谷歌单在 TPU 相关合作上就给博通付了 35 亿美元,2024 年这个数字预计会翻倍到 70 亿美元,甚至连第七代 TPU 的供应合同都已经提前锁定。除了谷歌,博通还跟 Meta 敲定了未来两年的 AI 基础设施合作,预计能带来数十亿美元收入;2025 年更联手 OpenAI 启动了 10 吉瓦级的定制 AI 加速器项目,这套系统会装在 OpenAI 全球的数据中心里,靠博通的以太网解决方案实现算力集群扩展,整个项目估值超过千亿美金。而且博通不只是靠单一产品,它 “定制加速器 + 高速互连” 的策略很见效,以太网、PCIe Gen6 这些配套 IP 能牢牢粘住客户,按照规划,2025 年它的 AI 总收入预计能突破 110 亿美元,差不多是 Marvell 同期 AI 收入的 4 倍多。
再看Marvell 的 “逆袭打法”。它虽然份额不如博通,但增长势头极猛:26Q1 数据中心营收达到 14.41 亿美元,占总营收的 76%,同比还暴增了 76%,这背后几乎全靠 AI 定制芯片的大规模出货。Marvell 聪明的地方在于不跟博通正面硬刚,而是走差异化路线。在客户布局上,它搭建了 “亚马逊 + 谷歌 + 微软” 的三角合作网:给亚马逊量产 5nm 的 Trainium 训练芯片,这款芯片占了 AWS ASIC 出货量的 85%,接下来还会接 Inferentia v3 推理芯片的项目;给谷歌代工 5nm 的 Axion ARM CPU 芯片,刚好和博通给谷歌做的 TPU 业务形成互补,不抢饭碗反而互相搭配;最近还拿下了微软 Maia AI 芯片 2026 年的量产订单,靠着这三大客户,Marvell 甚至定下了 2028 年 AI 收入冲刺 70-80 亿美元的目标。
技术上,Marvell 也有自己的侧重点,专门盯着 “能效 + 互联” 做文章。它已经能用上台积电最新的 3nm 制程工艺,还握有 112G XSR SerDes 高速互连 IP、240Tbps Die-to-Die 互连技术,在云数据中心场景里能做到 “性能够强、功耗够低”—— 它和美光合作开发的 HBM 高带宽内存架构,能让 AI 加速器的算力密度提升 25%,待机功耗却降低 66%,正好戳中云厂商想控制总拥有成本的需求。另外,Marvell 还搞了数据中心全栈布局,除了 AI 定制芯片,存储控制器、网络交换芯片这些配套产品也做得不错,比如它的 112G SerDes IP,既能用在 AI 加速器上,也能装在自家的以太网交换机里,这种 “芯片 - 互连 - 存储” 的垂直整合能力,成了它区别于博通的关键优势。
其实这两家能长期垄断,核心是有三道别人难跨的门槛。一是技术壁垒高,两家都掌握了3nm 制程量产能力,还有超 20 年的 ASIC 设计经验 ——Marvell 过去 25 年交付了超过 2000 个定制项目,博通手里有覆盖计算、存储、网络的全场景 IP 库,新玩家想跟上,得先闯过 “制程工艺 + 客户验证 + 生态适配” 这三关。二是客户分化合理,博通主要做谷歌、Meta、OpenAI 这些客户的 “训练侧” 算力需求,Marvell 聚焦亚马逊、微软的 “推理 + 通用计算” 场景,互不抢食,反而能覆盖更多市场。2025 年全球云服务提供商的 ASIC 出货量预计超 500 万颗,其中谷歌 TPU 的 220 万颗、AWS ASIC 的 180 万颗,核心份额还是被这两家分了。三是行业趋势助推,现在生成式 AI 对算力的需求,正从通用 GPU 转向定制 ASIC—— 毕竟 ASIC 在特定任务上算力成本降低了30%到40%,云厂商为了降成本,更愿意跟头部供应商深度绑定,比如 OpenAI 既选博通做定制加速器,又用英伟达的通用算力,这也说明双寡头在 ASIC 领域的地位很难被撼动。
03
生态和供应链,是关键
AI算力竞争远不止于芯片性能本身,更延伸到软件生态和供应链安全。
英伟达凭借CUDA生态系统构建了深厚的护城河,这是其声明中“*可以运行所有AI模型”的底气所在。谷歌则通过垂直整合,强化软硬件协同优势。谷歌上周发布了公司最强大模型Gemini 3,这款广受好评的*进AI模型是在该公司的TPU上训练的,而非英伟达GPU。这一技术成就增强了TPU作为英伟达GPU可靠替代方案的可信度。
供应链多元化成为云巨头的重要考量。研究机构Gartner分析师表示,谷歌尽管拥有自己的芯片,仍是英伟达*客户之一,因为它必须为客户保持灵活性。如果客户的算法或模型发生变化,GPU更适合处理更广泛的工作负载。与英伟达不同,谷歌不向其他公司出售TPU芯片,而是将其用于内部任务,并允许企业通过Google Cloud租用。
这种模式正在获得认可,当前TPU客户包括OpenAI联合创始人Ilya Sutskever去年创起的初创公司Safe Superintelligence,以及Salesforce、Midjourney和Anthropic。
国内市场方面,巨头企业在ASIC 领域的布局同样亮眼,其中阿里巴巴自研的 PPU 芯片走在前列。据机构研判,这款 PPU 芯片在显存容量、片间互联带宽等关键指标上已超越英伟达 A800,而在显存容量、PCIe 等核心参数上,也能与英伟达 H20 比肩。
上市公司中,芯原股份近年来与互联网巨头展开深度合作,其AI ASIC 业务在今年第三季度实现了翻倍式增长;翱捷科技则聚焦智能穿戴、端侧 SOC 等细分领域,目前 ASIC 业务在手订单充足,机构预计到 2026 年,该公司这一业务的收入将迎来大幅提升。
对于国产AI 芯片的发展,多家券商也给出积极判断。中信证券指出,当前国产 AI 芯片自主可控进展顺利,除了阿里巴巴自研的含光系列 AI 推理芯片外,华为昇腾、寒武纪等企业的自研 AI 芯片也在持续迭代,这些成果有望缓解国内 AI 领域对海外算力的依赖。西部证券认为,企业拥有自研芯片可替代外部供给,能有效确保模型迭代与规模部署的连续性和可预期性。浙商证券则分析称,相较于 GPU,ASIC 芯片在特定场景下具备低成本、高性能、低功耗的优势,专用性和性价比更高,预计到 2028 年,ASIC 市场规模将达到 AI 芯片整体市场的 19%;同时该机构提到,ASIC 芯片单价远低于 GPU,约为 GPU 的 1/5,随着 Meta、微软等企业逐步大规模部署自研 ASIC 解决方案,ASIC 总出货量有望在 2026 年某个时点超越英伟达。
ASIC的崛起并不意味GPU的衰落。正如谷歌发言人所回应的:“我们定制的TPU和英伟达GPU的需求都在加速增长。我们将一如既往地继续支持这两者。”这种多元化的策略,可能正是AI算力发展的未来方向——没有单一解决方案能通吃所有场景。
芯片行业“不是只有一个赢家的零和游戏”。即使是最积极的ASIC采用者,也仍在大量采购英伟达芯片。例如,Anthropic在与谷歌达成TPU协议几周后,就宣布了与英伟达的重大交易。
在AI技术快速迭代的今天,算力格局的重塑才刚刚开始。