21世纪经济报道记者 倪雨晴
3月17日凌晨,被誉为AI“超级碗”与AI“春晚”的英伟达GTC开幕,“AI教主”、英伟达创始人兼CEO黄仁勋再次站在舞台中央,用一场技术风暴刷新着物理极限。
(图源:GTC2026)
英伟达宣布,Vera Rubin(最新芯片架构)目前已有七款新芯片全面投入生产,Vera Rubin平台正在开启 Agentic AI新时代,构建全球最大的AI工厂。
具体而言,这些芯片产品包括:
- NVIDIA Vera CPU(没错,英伟达已进军服务器CPU)
- NVIDIA Rubin GPU (GPU王牌产品)
- NVIDIA NVLink 6(第六代NVLink交换机芯片,芯片内部互联)
- NVIDIA ConnectX-9 SuperNIC(超级网卡)
- NVIDIA BlueField-4 DPU (存储芯片)
- NVIDIA Spectrum-6 (以太网交换机芯片,支持CPO技术)
- 以及新集成的 NVIDIA Groq 3 LPU(收编Groq后的首款芯片)
可以看到,芯片家族中不仅有大家平常熟知的CPU、GPU产品,还包括来自Groq的LPU,以及存储芯片、交换机芯片等全系产品。这些芯片又能够组成5款机架,在数据中心运行。
而Vera Rubin平台把这些芯片全部汇聚在一起,可以形成一台强大的AI超级计算机。无论是大规模预训练、后训练和测试时扩展,还是实时智能推理,这台算力性能巨兽都可以支持。
“Vera Rubin是一次代际跃迁——七个突破性芯片、五种机架、一台巨型超级计算机——为AI的每一个阶段提供动力,”黄仁勋表示,“随着Vera Rubin的推出,Agentic AI的拐点已经到来,并将开启历史上最大规模的基础设施建设。”
在演讲中,黄仁勋还预测,Blackwell与Rubin的AI芯片,到2027年底的收入将达到1万亿美元,相比去年10月的5000亿美元销售预测,已经翻倍。
今天的发布可谓“前所未有”,这不单单是GPU、也不单是某一项技术升级,黄仁勋再次强调“Token”经济学,并贯彻AI“五层蛋糕”理论。
早在2月的GTC 2026大会预告中,黄仁勋就表示:“我们准备了几款世界上前所未见的全新芯片。所有技术都已到达极限,所以没有容易的事。”
一方面,“前所未见的全新芯片”的描述固然让世界兴奋,英伟达在过去的10年持续推出高性能芯片,让超预期都成为日常。英伟达的技术路径预览是明确的,从Hopper、Blackwell、到Rubin、再到Feyman。黄仁勋锁定了至少是未来5年的算力交付能力。
而另一方面,“所有技术都已到达极限”并非标题党,这给高热度的资本市场带来隐忧,这句话的潜台词也可以理解为,跨数量级层面的进步或许提前透支,再要突破已经困难。
在这次发布会上,英伟达依然带来了系统级的创新。在AI发展的长河中,如果说过去两年是算力的“军备竞赛”,那么2026年则正式开启了系统级进化的新纪元。算力的较量,已经从单芯片过渡到AI基础设施系统化建设。
黄仁勋在去年GTC提到,英伟达要转型为AI基建企业,今年已经在落地。英伟达可不仅仅是时代的“铲子商”,通过构建从算力到应用的完整体系,它正在变成整个AI生态的基础平台,试图成为AI时代中水和电的角色。
此外,英伟达还围绕AI代理(Agent)、开放模型以及跨行业应用发布了一系列重要进展,推出英伟达版“龙虾”Nemo Claw;面向物理AI,推出开放式Physical AI数据工厂蓝图(Open Physical AI Data Factory Blueprint),以加速机器人、视觉 AI代理和自动驾驶汽车开发。面向太空,英伟达推出太空计算服务,将AI引入轨道数据中心 (ODC)、地理空间智能和自主太空操作,NVIDIA Space-1 Vera Rubin模块是最新组件。
一个趋势是,巨头们正在不断聚集能力,补齐短板,延伸上下游,形成更加强大的壁垒。单一比拼芯片、性能等单打独斗的阶段已经过去,一场全方位的系统级激烈竞赛正在上演。
Vera Rubin的彻底革新:从单芯片到系统级时代
作为Blackwell的跨代接力者,英伟达定于2026年下半年量产的Rubin (R100) 架构。在核心底层,该架构全面转场台积电3nm (N3P) 工艺,其标志性的Vera CPU(基于88核自研Olympus 架构)与Rubin GPU通过1.8 TB/s的NVLink-C2C技术实现了物理意义上的同封装集成。
这种“去PCIe化”的紧耦合设计,让算力不再受限于传统链路,单GPU在NVFP4精度下的推理算力增至50 PFlops,训练算力达35 PFlops,其规模化推理能效较Blackwell提升了5倍之多。
具体来看由新芯片组成的核心机架产品。首先,英伟达发布的Vera Rubin NVL72(机架) 通过 NVLink 6连接72个Rubin GPU和36个Vera CPU,并配备ConnectX-9 SuperNIC和BlueField-4 DPU,实现效率提升。
据介绍,在训练大型混合专家模型时,与Blackwell平台相比,Rubin仅需四分之一数量的GPU,并实现每瓦推理吞吐量最高10倍,同时每token成本为十分之一。该系统为全球超大规模AI 工厂设计,NVL72可通过NVIDIA Quantum-X800 InfiniBand和Spectrum-X Ethernet无缝扩展,从而在大规模GPU集群中保持高利用率,同时减少训练时间和总体拥有成本。
在应用场景层面,Rubin是专门为 “代理型 AI(Agentic AI)” 与长上下文推理 打造的数字工厂心脏。它引入了Transformer Engine 3.0与Inference Context Memory存储平台,通过BlueField-4 DPU卸载存储管理压力,使得 AI 智能体能够处理数万个Token的上下文关联,并进行多步逻辑推理与实时决策,平台配备了支持硅光子技术(CPO)的Spectrum-X Ethernet Photonics网络,单机柜NVL72的内部互联总带宽达到260 TB/s,相当于全球互联网跨境带宽总和的数倍。
除了GPU机架,英伟达还推出了Vera CPU机架,它是基于英伟达MGX构建的高密度液冷基础设施,集成256个Vera CPU,以提供可扩展、节能的容量,并具备世界级单线程性能。与GPU计算机架一起,它们为大规模Agentic AI和强化学习提供CPU基础——Vera 的效率是传统CPU的两倍,速度提升50%。
目前,与英伟达合作部署Vera CPU的客户包括阿里巴巴、字节跳动、Meta和Oracle Cloud Infrastructure,以及CoreWeave、Lambda、Nebius和Nscale。Vera已经全面投产,并将在今年下半年供货。
芯片、机架性能加速的同时,英伟达也越来越关注能耗、能源问题。当前,能源是AI基础设施建设的最大瓶颈。英伟达一方面正在与能源提供商合作,以更快地获取电力并加强电网稳定性;另一方面与超200家数据中心基础设施合作伙伴一起,发布了DSX平台,应用于Vera Rubin。
新的DSX平台包括DSX Max-Q,用于在整个AI工厂中实现动态电力配置,从而在固定电力的数据中心内部署30%更多的AI基础设施。新的DSX Flex软件使AI工厂成为电网灵活资产,从而释放100 gigawatts的闲置电网电力。
可以看到,到Vera Rubin这一代,英伟达所代表的,已不再是一个单纯的显卡,它是一个将算力、互联、存储与液冷基础设施深度共生的“超级计算机单元”,标志着AI基建正式进入万亿token成本下降十倍、能效提升八倍的新纪元。
正如英伟达所指出,AI基础设施正在快速演进,从离散芯片和独立服务器,转向完全集成的机架级系统、POD级部署、AI工厂以及主权AI。
这次英伟达甚至推出了Vera Rubin DSX AI工厂参考设计,教大家如何设计、建设和运营整个AI工厂基础设施堆栈,涵盖计算、NVIDIA Spectrum-XEthernet网络以及存储,以实现可重复、可扩展且最优的集群性能。
传统的数据中心、AI基建正在面临新的变革。黄仁勋表示:“在AI时代,智能token是新的货币,而 AI工厂是生成这些token的基础设施。通过 Vera Rubin DSX AI Factory 参考设计和 Omniverse DSX Blueprint(数字孪生蓝图),我们正在提供构建世界上最高生产力AI工厂的基础,加速首次收入时间,并最大化规模和能源效率。”
此外,在这次大会上,黄仁勋还预告了下一代Feynman系统。该系统配备了全新的GPU、LPU、名为Rosa的全新CPU、Bluefield 5以及Kyber架构,并支持铜缆和CPO扩展。Feynman系统预计将于2028年发布。
(图源:英伟达)
Groq LPU推理芯片:与GPU构建混合算力帝国
再看非常受关注的Groq芯片。
2025年底,英伟达通过200亿美元战略授权并深度集成的Groq LPU (Language Processing Unit) 架构,是精准猎杀延迟、开启实时交互时代的“超音速截击机”。这一合作标志着英伟达正式将 AI 战火从“训练效率”扩展到“推理效率”,通过引入Groq创始人Jonathan Ross(前 Google TPU 之父)主导的软件定义硅片范式,突破传统GPU在生成式AI推理场景下的表现瓶颈。
英伟达表示,此次推出的Groq 3 LPX(机架)标志着加速计算的一个里程碑。LPX机架包含256个 LPU处理器,具有128GB片上SRAM和640 TB/s的扩展带宽。当与Vera Rubin NVL72一起部署时,Rubin GPU和LPU通过共同计算AI模型每一层来提升解码速度,从而为每个输出token提供计算。
换言之,LPX专为agentic系统的低延迟和大上下文需求而设计。LPX与Vera Rubin结合,将两种处理器的极致性能结合在一起,实现每兆瓦推理吞吐量最高35倍,并为万亿参数模型带来最高10倍的收入机会。
并且,LPX架构针对万亿参数模型和百万token上下文进行了优化,并与Vera Rubin进行协同设计,以最大化功耗、内存和计算效率。这意味着,更高的每瓦吞吐量和token性能将开启一个新的推理层级——超高端、万亿参数、百万上下文推理,从而扩大所有AI提供商的收入机会。
同时,LPX采用全液冷设计,并基于MGX基础设施构建,将无缝集成到下一代Vera Rubin AI工厂中,并将在今年下半年提供。
进入推理时代,英伟达在GPU之外,融合了新的架构,大幅提升效率。
在技术架构上,Groq LPU抛弃了传统GPU中复杂的缓存管理、分支预测和指令重排等“猜测性”硬件设计,转而采用一种确定性流水线架构。这种设计将硬件复杂度彻底剥离至编译器层,使得数据在芯片内的流动如同精密的传送带,没有任何不可控的抖动(Jitter)。
为了突破困扰行业已久的“存储墙”瓶颈,LPU舍弃了高带宽但高延迟的HBM,转而密布了高达 230MB 的片上SRAM,内存带宽升至80 TB/s,这一数值甚至达到了顶级 Blackwell GPU的十倍之多。在这种极致的带宽支持下,LPU能够在单批次(Batch Size 1)推理中实现几乎“感知不到”的首字延迟(TTFT),其Token生成速度稳定维持在1600 tokens/s以上,将大语言模型的响应从“逐字跳动”进化为“瞬时成文”。
简单来说,就是你现在和豆包对话的"打字机"效果本质是因为算的不够快在交互上面进行权宜之计,如果按LPU的能力,以后AI对话将瞬时一次性给你全部文字。这种能力的提升要高度依赖推理速度的提升。
在实战应用场景中,由英伟达技术加持的LPX机架,正成为 “代理型AI(Agentic AI)”与“实时语音交互” 的唯一救星。在自动驾驶辅助系统或高频交易机器人中,任何毫秒级的计算波动都可能导致决策失效,而LPU的确定性算力保证了任务执行时间永远恒定。
对于需要多步推理甚至涉及数百次模型调用的复杂Agent链条,LPU能将原本需要数分钟的串联思考缩短至数秒,使得AI能够像人类一样进行自然、流利的实时对话与协同。为了承载这一全新的计算范式,英伟达将LPU单元通过NVFusion技术无缝嵌入其庞大的CUDA生态,通过 disaggregated(解耦式)架构将训练好的权重从GPU快速调度至LPU推理阵列。
在这一能力加持下,英伟达将训练和推理分离,构建了一个混合算力帝国:GPU负责在后方深耕万亿参数模型的训练与长文本预处理,而LPU阵列则在前方防线以10倍于对手的能效比与极速响应,统治着万亿级的实时推理市场,正式宣告了“推理即时化”时代的到来。
英伟达版“龙虾”面世:拥抱智能体时代
与此同时,英伟达围绕AI代理(Agent)、开放模型以及跨行业应用发布了一系列重要进展。随着人工智能从单纯的对话工具,逐渐演进为能够自主规划任务、调用工具并执行复杂工作的“智能体”,围绕代理系统的软件平台、模型能力与生态体系正成为行业新的竞争焦点。
在这一背景下,英伟达通过推出面向OpenClaw生态的NemoClaw软件栈、联合全球AI实验室成立Nemotron Coalition,以及扩展多条开放模型产品线,进一步完善其AI基础设施与模型生态布局。
其中,最受开发者关注的一项发布,是面向OpenClaw社区推出的NemoClaw软件栈。近期,开源项目OpenClaw在开发者社区迅速走红,被不少业内人士视为“个人AI操作系统”的雏形。
黄仁勋也高度评价了OpenClaw。“OpenClaw向所有人打开了AI的下一个前沿,并成为历史上增长最快的开源项目,”黄仁勋表示,“Mac和Windows是个人计算机的操作系统。OpenClaw是个人AI的操作系统。这正是行业一直在等待的时刻——软件新时代复兴的开始。”与传统AI应用不同,OpenClaw的目标是让AI代理像应用程序一样持续运行,能够自主规划任务、调用工具,并完成复杂工作流程。
在这一框架下,NemoClaw提供了一整套基础软件能力,使开发者可以通过一条命令安装NVIDIA Nemotron模型以及新发布的OpenShell运行时环境,并为AI代理增加安全与隐私控制能力。借助OpenShell提供的隔离沙箱环境,AI代理在访问工具和数据时可以遵循既定的安全策略与隐私规则,从而在提升效率的同时保证数据安全。
NemoClaw还支持本地模型与云端模型的混合调用。开发者可以在用户专用设备上运行Nemotron模型,同时通过隐私路由访问云端的前沿模型,从而在保证数据隐私的同时获得更强的计算能力。英伟达表示,NemoClaw可以运行在多种专用计算平台上,包括搭载GeForce RTX显卡的PC和笔记本电脑、RTX PRO工作站,以及DGX Station和DGX Spark系统,为全天候运行的AI代理提供稳定算力。
在推动AI代理平台发展的同时,英伟达也在加速构建开放模型生态。此次大会上,英伟达宣布成立Nemotron Coalition(Nemotron联盟),联合全球多家领先AI实验室与模型开发机构,共同推进开放前沿模型的发展。该联盟的创始成员包括Black Forest Labs、Cursor、LangChain、Mistral AI、Perplexity、Reflection AI、Sarvam以及Thinking Machines Lab等机构。
根据计划,联盟的首个项目将由Mistral AI与NVIDIA联合开发基础模型,其他成员则参与数据贡献、评估体系构建以及领域知识支持等环节。英伟达表示,该模型未来将成为即将推出的NVIDIA Nemotron 4开放模型家族的重要基础。
除了生态层面的合作,英伟达也同步扩展了多条开放模型产品线,以支持AI代理、物理智能以及医疗科研等不同领域的发展。其中,NVIDIA Nemotron 3系列模型进一步强化多模态理解能力,推出Ultra、Omni和VoiceChat等多个版本。相关模型能够同时处理语言、视觉与语音信息,使AI代理不仅可以进行自然对话,还能够完成复杂推理任务,并从视频和文档等多种数据来源中提取关键信息。
除了数字世界中的AI代理,英伟达还在推动人工智能进入现实世界。此次发布的新模型包括用于机器人和自动驾驶系统的多种基础模型。例如,NVIDIA Isaac GR00T N1.7是一款面向类人机器人的视觉语言行动模型,能够支持机器人在现实环境中进行感知、推理和行动决策;
NVIDIA Alpamayo 1.5则面向自动驾驶场景,通过导航提示、多摄像头支持以及可配置摄像头参数等能力提升车辆推理能力;而即将推出的NVIDIA Cosmos 3则被称为首个统一“世界生成、物理推理和行动仿真”的世界基础模型,有望帮助机器人和自动驾驶系统在复杂环境中完成训练与决策。
从AI代理平台到开放模型生态,再到机器人、自动驾驶与生命科学等应用领域,英伟达正在逐步搭建一个覆盖数字世界与物理世界的AI技术体系。随着更多开发者和企业加入开放模型与AI代理生态,这一体系也有望进一步推动人工智能在全球范围内的创新与落地。
金融监管总局、中国人民银行3月15日发布《个人贷款业务明示综合融资成本规定》(以下简称《规定》),要求贷款人向借款人展示综合融资成本明示表,清晰披露个人贷款息费成本,使个贷各项息费 中新经纬3月16日电 (闫淑鑫)刚刚过去的315晚会,将聚光灯打向了消费者熟悉的零食――鸡爪。 当“生产车间脏乱差”“双氧水漂白”“年销过亿”等字眼冲击着消费者眼球时,不少“啃爪人”心中一边怒斥无良商家,一边 中新经纬3月16日电 国家统计局网站16日披露数据显示,1―2月份,社会消费品零售总额86079亿元,同比增长2.8%。其中,除汽车以外的消费品零售额79827亿元,增长3.7%。 国家统计局网站截图 按经营单位所在地分,1―2月份 。本文链接:燃爆!英伟达连发7款芯片,黄仁勋剑指万亿AI芯片收入http://www.sushuapos.com/show-3-169752-0.html
声明:本网站为非营利性网站,本网页内容由互联网博主自发贡献,不代表本站观点,本站不承担任何法律责任。天上不会到馅饼,请大家谨防诈骗!若有侵权等问题请及时与本网联系,我们将在第一时间删除处理。