英伟达周一在2026年 GTC大会上正式发布全新处理器Vera CPU,为全球首款专为代理式AI与强化学习时代设计的中央处理器(CPU),其运行效率是传统机架级CPU的两倍,速度提升50%,标志着AI基础设施的重大技术突破。
随着推理型 AI 与代理式 AI 的快速发展,大语言模型 (LLM) 的规模、效能与成本愈发仰赖底层基础设施的支持。 这些模型负责规划任务、运行工具、与数据互动、执行代码并验证结果。
Vera CPU 正是在这一背景下应运而生,旨在协助各行各业及各种规模的组织打造 AI 工厂,大规模释放代理式 AI 潜力。 该处理器具备卓越的单线程效能与每核心带宽,可显著提升AI吞吐量、响应速度与运行效率,适用于编程助手及面向消费者和企业的智能体应用。
多家全球领先企业与系统制造商已跟英伟达合作部署 Vera CPU,包括阿里巴巴、CoreWeave、Meta、甲骨文以及戴尔科技、HPE、联想与 Supermicro 等。
广泛采用使Vera有望成为开发者、初创公司、公私立机构与企业进行AI运算的首选CPU标准,有助于普及AI应用并加速创新。
全新推出的Vera CPU机架整合256颗液冷Vera处理器,可持续支持超过22,500个并发CPU环境,每个环境皆能以全性能独立运行。 AI 工厂可借此在单一机架内快速部署,并扩展至数万个并发实例与智能体工具。 此机架采用英伟达 MGX 模块化参考架构,并获得全球 80 家生态系伙伴支持。
Vera CPU 也是英伟达Vera Rubin NVL72 平台的核心零件,可透过 NVLink-C2C 互连技术与 GPU 配对,提供高达 1.8TB/s 的相干带宽,是 PCIe Gen 6 的七倍,实现 CPU 与 GPU 之间的高速数据共享。
英伟达亦推出新参考设计,将 Vera 作为 HGX Rubin NVL8 系统的主机 CPU,负责协调 GPU 加速工作负载的数据搬移与系统控制。
Vera 系统支持双路与单路 CPU 服务器配置,适用于强化学习、智能体推理、数据处理、系统编排、储存管理、云端应用及高效能运算等场景。 所有配置均整合英伟达平台维持统一软件堆叠。
Vera 搭载 88 个英伟达专为 AI 打造的 Olympus 核心,可高效支持编译器、运行时引擎、分析流水线、智能体工具与编排服务等工作负载。 每核心可通过 Spatial Multithreading 技术同时运行两项任务,提供稳定可预测的效能,特别适合多租户 AI 工厂的多任务处理需求。
为提升能效,Vera采用第二代低功耗内存子系统,搭配LPDDR5X存储器,带宽达1.2TB/s,是一般通用CPU的两倍,功耗却仅有一半。
AI 原生开发公司 Cursor 已率先导入 Vera,以提升其 AI 编程智能体效能。 多家云服务商如阿里巴巴、字节跳动、Cloudflare、CoreWeave、Crusoe、Lambda、Nebius、Nscale、Oracle Cloud Infrastructure、Together.AI 与Vultr,也打算部署Vera CPU。 基
础设施合作伙伴则涵盖 Aivres、ASRock Rack、华硕、思科、戴尔、富士康、技嘉、HPE、联想、技嘉、微星、广达、纬创、Wistron 与 Wiwynn 等。
英伟达表示,Vera CPU目前已进入全面量产阶段,预计今年下半年将透过合作伙伴正式上市,为全球AI工厂与代理式智能应用提供强大运算支撑。













