《Yahoo Finance》报导,英伟达(Nvidia)(NVDA-US)周一(16日)在加州圣荷西举行的 GTC大会揭幕,推出多款芯片与平台,从全新的Groq 3语言处理器(LPU)到大型Vera CPU服务器机柜,直接与英特尔(INTC-US)和超威(AMD-US)) 产品竞争。
英伟达称这次共推出五种大型服务器机柜系统,各自负责 AI 数据中心中的不同任务。
此次最重要的发布是Groq 3芯片。 英伟达去年12月宣布与Groq签署技术授权协议,并以200亿美元的交易聘请创办人Jonathan Ross、总裁Sunny Madra及多名Groq团队成员加入公司。
Groq 的处理器专注于 AI 推论,即运行 AI 模型的阶段。 例如当用户在 OpenAI 的 ChatGPT、Anthropic 的 Claude,或 Google 的 Gemini 输入问题并得到响应,就是 AI 推论的过程。
英伟达的GPU属于多用途处理器,可同时用于AI模型训练与推论。 但随着 AI 市场逐渐转向模型运行阶段,确保公司拥有专门的推论芯片变得愈来愈重要。
这正是 Groq 3 的角色。
英伟达超大规模与高效能运算副总裁Ian Buck表示,虽然英伟达GPU支持的内存容量远高于Groq 3,但LPU的内存速度更快,因此公司将结合两种芯片的性能优势。
为此,英伟达推出Groq 3 LPX平台,这是一个由128颗Groq 3LPU组成的服务器机柜。 若搭配Vera Rubin NVL72机柜使用,英伟达表示客户可获得:每MW(百万瓦)电力的处理量提高35倍、营收机会提升10倍。
公司在声明中表示,「LPX 架构针对兆级参数模型与百万 token 上下文进行最佳化,并与 Vera Rubin 共同设计,在功耗、内存与运算效率上达到最大化。 每瓦处理量与 token 效能的提升,将开启超高阶 AI 推论的新层级,为所有 AI 服务供应商扩大营收机会。」
LPX机柜也有助于回应市场对英伟达可能在AI竞赛中被专注于推论芯片的新创企业追赶的疑虑。
除了 LPX 外,英伟达还公布 Vera CPU 机柜。 过去英伟达提到 Vera Rubin 超级芯片时,指的是三合一架构:一颗 Vera CPU 与两颗 Rubin GPU。
现在公司将 Vera CPU 独立成单一芯片,并将其部署在专属服务器机柜中。 每个系统将整合 256 颗液冷 Vera 芯片。
随着代理型 AI 兴起,CPU 的重要性正在上升。 虽然GPU与LPU用于运行AI模型,但当AI代理需要浏览网站或从试算表取得数据时,主要依赖的是CPU效能。
这些芯片在数据探勘、个性化处理,以及为GPU与AI模型提供情境分析等方面,也扮演关键角色。
Buck表示,Vera 是最适合代理型 AI 工作负载的 CPU。 我们设计了一种新的 CPU 核心——Olympus core,由英伟达专为 AI 执行打造。 Vera 能在极端条件下提供更快速的代理 AI 响应,适用于所有代理 AI 与强化学习场景。」
这并非英伟达首次谈到 CPU 服务器。 上个月,公司宣布与Meta Platforms(META-US)达成合作,为其提供史上最大规模部署的Grace CPU系统。
但此次Vera发布显示英伟达正试图巩固其地位,不仅是GPU公司,同时也是CPU公司,并在数据中心市场与英特尔及AMD正面竞争。
除了Vera Rubin NVL72、Groq LPX与Grace机柜外,英伟达还展示了Bluefield-4 STX储存机柜及Spectrum-6 SPX网络机柜。
这些新产品将帮助英伟达持续扩大数据中心营收,因为 AI 平台需求仍在持续成长。 公司表示,2026会计年度数据中心营收达1,935亿美元,高于2025年度的1,162亿美元。
此外,包括亚马逊(AMZN-US)、Alphabet(GOOGL-US)、Meta及微软(MSFT-US)等超大型云端业者,今年预计将在AI能力上投入6,500亿美元,英伟达预料将取得其中一大部分。













