NVIDIA 砸 20 亿美元入股 Marvell,NVLink Fusion 要把自定义 AI 芯片生态打通
NVIDIA 砸 20 亿美元入股 Marvell,NVLink Fusion 要把自定义 AI 芯片生态打通
NVIDIA 砸 20 亿美元入股 Marvell,NVLink Fusion 要把自定义 AI 芯片生态打通
一句话看懂
2026 年 3 月 31 日,NVIDIA 宣布向芯片设计公司 Marvell 投资 20 亿美元,双方将通过 NVIDIA 名为"NVLink Fusion"的技术深度绑定合作——把 Marvell 的自定义 AI 加速芯片和网络芯片,直接接入 NVIDIA 的 AI 工厂和数据中心系统。
消息公布当天,Marvell 股价暴涨近 13%,NVIDIA 自身也涨了 5.6%。
这不是 NVIDIA 第一次做这种事。过去几个月,它已经对 Synopsys、CoreWeave、Coherent、Lumentum 各投了 20 亿美元。但这一次,意义不太一样:它第一次把最核心的芯片互连标准——NVLink——对外开放了。
什么是 NVLink Fusion?为什么这件值得关注
先讲一个简单类比。
想象一个大公司,总部大楼里全是同一种品牌的电脑。这些电脑之间的数据传输特别快,因为品牌自己的"专用数据线"把它们全连起来了。这就是 NVIDIA 现在的状态:GPU 和 GPU 之间用 NVLink 互联,速度极快、效率极高,但外人很难参与进来。
而 NVLink Fusion,相当于这家公司宣布:"我们的专用数据线接口,以后允许第三方设备接进来了。"
具体来说,Marvell 设计的自定义芯片——无论是专门优化某个 AI 工作负载的 AI 加速器,还是高速网络芯片——以后能通过 NVLink Fusion 直接和 NVIDIA GPU 在同一个系统里协同工作。这意味着:
- 不用经过 PCIe 等传统慢速总线,自定义芯片能像 NVIDIA 自家芯片一样高速地和 GPU 通信
- 混用变得可能:一个机架里,一部分用 NVIDIA GPU,一部分用 Marvell 的 ASIC,两者高效配合
- 客户有了更多选择:不用全部依赖某一家的芯片,但还能享受高效的系统级连接
对普通读者来说,简单一句话:NVIDIA 以前是"我的系统、我的芯片、我的标准",现在变成"我的系统,但也欢迎你的芯片插进来"。
Marvell 是谁?为什么选它
Marvell Technology 是一家总部在加州的老牌半导体设计公司,成立于 1995 年,在全球芯片行业深耕近 30 年。
它不是 GPU 公司,也不是芯片制造厂。它的核心能力是"定制芯片设计"——根据客户需要,专门优化某一种工作负载的芯片。
为什么它值得 20 亿?
第一,它是云巨头的"芯片外包商"。 为 Google(TPU 系列)、Microsoft、Amazon 等全球最大云公司设计定制 AI 芯片。云厂商需要定制芯片来优化自家 AI 服务,而 Marvell 有这种交付能力。
第二,它已经靠 AI 在快速增长。 2026 财年,Marvell 营收增长 42%,其中数据中心收入占总营收的 73%——几乎就是一家"AI 基础设施公司"。
第三,它在硅光子技术领域有积累。 这是下一代超高速数据传输的关键技术,用光而不是电信号在芯片之间传输。双方合作也包括了硅光子。
这不是 NVIDIA 第一次"撒 20 亿"
过去几个月,NVIDIA 已经做了一系列 20 亿美元的投资:
| 公司 | 领域 | 与 NVIDIA 的关系 |
|---|---|---|
| Synopsys | 电子设计自动化(芯片设计工具) | 让芯片设计更快 |
| CoreWeave | AI 云服务 | 扩大云计算客户群 |
| Coherent | 光通信和硅光子技术 | 数据中心互连基础设施 |
| Lumentum | 光模块和通信芯片 | 同样的互连赛道 |
| Nebius | AI 云基础设施 | 3月11日刚刚宣布的20亿投资 |
| Marvell | 自定义 AI 芯片和网络芯片 | 3月31日最新宣布 |
NVIDIA CEO 黄仁勋在接受 CNBC 采访时说:"每一笔投资都是我们生态圈的扩展。"翻译过来:NVIDIA 正在用资本把 AI 基础设施的上下游都绑在一起。
从 $100 亿(5 笔 20 亿)的总投资额来看,这已经不是"试水",而是系统性布局。
合作不止于此:硅光子和 AI-RAN
这次合作不仅限于 NVLink Fusion。公告还提到了两个方向:
硅光子(Silicon Photonics): 用光代替电来传输数据,速度更快、功耗更低。在 AI 数据中心的规模下,互连已经成了瓶颈——GPU 算得快,但如果数据传不过来,算力就浪费了。硅光子是解决这个瓶颈的关键技术之一。
AI-RAN(AI 无线接入网络): 把 AI 加速能力引入 5G/6G 电信基础设施。这听起来离"硬件新闻"有点远,但实际上,全球电信运营商正在用 AI 优化网络性能和能耗,这个市场的芯片需求在快速增长。
对行业格局的影响
1. 自定义芯片(ASIC)正成为主流
过去几年,Google 有 TPU,Amazon 有 Trainium,Microsoft 有 Maia,Meta 有 MTIA——几乎每个科技巨头都在设计自己的 AI 芯片。NVIDIA 以前对这个趋势是相对封闭的,而 NVLink Fusion 本质上是承认:自定义芯片不会消失,与其对抗不如接纳。
2. NVIDIA 的"生态护城河"进一步加深
如果说以前 NVIDIA 的竞争优势是"GPU 性能最强",那现在正在变成"GPU 性能最强 + 谁能接进我的系统 + 我的生态最完善"。AMD 和 Intel 也在做自定义芯片,但 NVIDIA 通过 NVLink Fusion 把这个生态拉得更宽了。
3. 云厂商可能迎来"混合 AI 芯片"时代
未来一个数据中心里,可能同时出现 NVIDIA GPU、Marvell ASIC、以及其他公司的定制芯片,通过 NVLink Fusion 高效互联。这对降低整体 AI 服务成本可能有帮助——因为不同工作负载可以用最适合的芯片来跑。
4. 对普通读者:AI 服务的成本有望下降
芯片行业竞争越充分,定制化程度越高,最终反映到终端就是:你用的 AI 产品可能更便宜、更快、功能更多。这不是什么抽象的道理——每一次基础设施层面的效率提升,都会层层传导到你每天用的 ChatGPT、Copilot、各种 AI 工具上。
总结
2026 年 3 月 31 日的这笔 $20 亿投资,不只是"NVIDIA 又投了一家公司"这么简单。它标志着 AI 芯片行业进入了一个新阶段:
- NVIDIA 从"封闭系统"走向"开放生态"
- 自定义 AI 芯片不再是被边缘化的"备选方案",而是正式接入主流 AI 基础设施
- 硅光子和 AI-RAN 等下一代互连技术,正在从实验室走向商业部署
对行业来说,这是一笔生态投资。对普通人来说,这意味着未来的 AI 服务会更高效、更便宜、更多样化。而这一切的起点,就是 NVLink Fusion——那条让"别人的芯片"也能无缝接入 NVIDIA 系统的纽带。
---
本文信息来源:NVIDIA 官方新闻稿、Marvell 官方新闻稿、Reuters、CNBC、Bloomberg、SiliconANGLE 等公开报道。
本文信息来源:NVIDIA 官方新闻稿、Marvell 官方新闻稿、CNBC、Reuters、SiliconANGLE 等公开报道。