NVIDIA 砸 20 亿美元入股 Marvell,NVLink Fusion 要把自定义 AI 芯片生态打通

分类: AI硬件设备 |发布于: 4/1/2026 |最后更新: 4/1/2026
NVIDIA 砸 20 亿美元入股 Marvell,NVLink Fusion 要把自定义 AI 芯片生态打通

NVIDIA 砸 20 亿美元入股 Marvell,NVLink Fusion 要把自定义 AI 芯片生态打通

NVIDIA 投资 Marvell 合作示意图

NVIDIA 砸 20 亿美元入股 Marvell,NVLink Fusion 要把自定义 AI 芯片生态打通

一句话看懂

2026 年 3 月 31 日,NVIDIA 宣布向芯片设计公司 Marvell 投资 20 亿美元,双方将通过 NVIDIA 名为"NVLink Fusion"的技术深度绑定合作——把 Marvell 的自定义 AI 加速芯片和网络芯片,直接接入 NVIDIA 的 AI 工厂和数据中心系统。

消息公布当天,Marvell 股价暴涨近 13%,NVIDIA 自身也涨了 5.6%。

这不是 NVIDIA 第一次做这种事。过去几个月,它已经对 Synopsys、CoreWeave、Coherent、Lumentum 各投了 20 亿美元。但这一次,意义不太一样:它第一次把最核心的芯片互连标准——NVLink——对外开放了。

什么是 NVLink Fusion?为什么这件值得关注

先讲一个简单类比。

想象一个大公司,总部大楼里全是同一种品牌的电脑。这些电脑之间的数据传输特别快,因为品牌自己的"专用数据线"把它们全连起来了。这就是 NVIDIA 现在的状态:GPU 和 GPU 之间用 NVLink 互联,速度极快、效率极高,但外人很难参与进来。

而 NVLink Fusion,相当于这家公司宣布:"我们的专用数据线接口,以后允许第三方设备接进来了。"

具体来说,Marvell 设计的自定义芯片——无论是专门优化某个 AI 工作负载的 AI 加速器,还是高速网络芯片——以后能通过 NVLink Fusion 直接和 NVIDIA GPU 在同一个系统里协同工作。这意味着:

  • 不用经过 PCIe 等传统慢速总线,自定义芯片能像 NVIDIA 自家芯片一样高速地和 GPU 通信
  • 混用变得可能:一个机架里,一部分用 NVIDIA GPU,一部分用 Marvell 的 ASIC,两者高效配合
  • 客户有了更多选择:不用全部依赖某一家的芯片,但还能享受高效的系统级连接

对普通读者来说,简单一句话:NVIDIA 以前是"我的系统、我的芯片、我的标准",现在变成"我的系统,但也欢迎你的芯片插进来"。

Marvell 是谁?为什么选它

Marvell Technology 是一家总部在加州的老牌半导体设计公司,成立于 1995 年,在全球芯片行业深耕近 30 年。

它不是 GPU 公司,也不是芯片制造厂。它的核心能力是"定制芯片设计"——根据客户需要,专门优化某一种工作负载的芯片。

为什么它值得 20 亿?

第一,它是云巨头的"芯片外包商"。 为 Google(TPU 系列)、Microsoft、Amazon 等全球最大云公司设计定制 AI 芯片。云厂商需要定制芯片来优化自家 AI 服务,而 Marvell 有这种交付能力。

第二,它已经靠 AI 在快速增长。 2026 财年,Marvell 营收增长 42%,其中数据中心收入占总营收的 73%——几乎就是一家"AI 基础设施公司"。

第三,它在硅光子技术领域有积累。 这是下一代超高速数据传输的关键技术,用光而不是电信号在芯片之间传输。双方合作也包括了硅光子。

这不是 NVIDIA 第一次"撒 20 亿"

过去几个月,NVIDIA 已经做了一系列 20 亿美元的投资:

公司领域与 NVIDIA 的关系
Synopsys电子设计自动化(芯片设计工具)让芯片设计更快
CoreWeaveAI 云服务扩大云计算客户群
Coherent光通信和硅光子技术数据中心互连基础设施
Lumentum光模块和通信芯片同样的互连赛道
NebiusAI 云基础设施3月11日刚刚宣布的20亿投资
Marvell自定义 AI 芯片和网络芯片3月31日最新宣布

NVIDIA CEO 黄仁勋在接受 CNBC 采访时说:"每一笔投资都是我们生态圈的扩展。"翻译过来:NVIDIA 正在用资本把 AI 基础设施的上下游都绑在一起。

从 $100 亿(5 笔 20 亿)的总投资额来看,这已经不是"试水",而是系统性布局。

合作不止于此:硅光子和 AI-RAN

这次合作不仅限于 NVLink Fusion。公告还提到了两个方向:

硅光子(Silicon Photonics): 用光代替电来传输数据,速度更快、功耗更低。在 AI 数据中心的规模下,互连已经成了瓶颈——GPU 算得快,但如果数据传不过来,算力就浪费了。硅光子是解决这个瓶颈的关键技术之一。

AI-RAN(AI 无线接入网络): 把 AI 加速能力引入 5G/6G 电信基础设施。这听起来离"硬件新闻"有点远,但实际上,全球电信运营商正在用 AI 优化网络性能和能耗,这个市场的芯片需求在快速增长。

对行业格局的影响

1. 自定义芯片(ASIC)正成为主流

过去几年,Google 有 TPU,Amazon 有 Trainium,Microsoft 有 Maia,Meta 有 MTIA——几乎每个科技巨头都在设计自己的 AI 芯片。NVIDIA 以前对这个趋势是相对封闭的,而 NVLink Fusion 本质上是承认:自定义芯片不会消失,与其对抗不如接纳。

2. NVIDIA 的"生态护城河"进一步加深

如果说以前 NVIDIA 的竞争优势是"GPU 性能最强",那现在正在变成"GPU 性能最强 + 谁能接进我的系统 + 我的生态最完善"。AMD 和 Intel 也在做自定义芯片,但 NVIDIA 通过 NVLink Fusion 把这个生态拉得更宽了。

3. 云厂商可能迎来"混合 AI 芯片"时代

未来一个数据中心里,可能同时出现 NVIDIA GPU、Marvell ASIC、以及其他公司的定制芯片,通过 NVLink Fusion 高效互联。这对降低整体 AI 服务成本可能有帮助——因为不同工作负载可以用最适合的芯片来跑。

4. 对普通读者:AI 服务的成本有望下降

芯片行业竞争越充分,定制化程度越高,最终反映到终端就是:你用的 AI 产品可能更便宜、更快、功能更多。这不是什么抽象的道理——每一次基础设施层面的效率提升,都会层层传导到你每天用的 ChatGPT、Copilot、各种 AI 工具上。

总结

2026 年 3 月 31 日的这笔 $20 亿投资,不只是"NVIDIA 又投了一家公司"这么简单。它标志着 AI 芯片行业进入了一个新阶段:

  • NVIDIA 从"封闭系统"走向"开放生态"
  • 自定义 AI 芯片不再是被边缘化的"备选方案",而是正式接入主流 AI 基础设施
  • 硅光子和 AI-RAN 等下一代互连技术,正在从实验室走向商业部署

对行业来说,这是一笔生态投资。对普通人来说,这意味着未来的 AI 服务会更高效、更便宜、更多样化。而这一切的起点,就是 NVLink Fusion——那条让"别人的芯片"也能无缝接入 NVIDIA 系统的纽带。

---

本文信息来源:NVIDIA 官方新闻稿、Marvell 官方新闻稿、Reuters、CNBC、Bloomberg、SiliconANGLE 等公开报道。

本文信息来源:NVIDIA 官方新闻稿Marvell 官方新闻稿CNBCReutersSiliconANGLE 等公开报道。