在GTC 2026大会上,NVIDIA宣布推出NVIDIA BlueField-4 STX模块化参考架构。该架构旨在助力企业、云计算及AI服务商轻松部署加速存储基础设施,以满足代理式AI所需的长上下文推理能力。
NVIDIA创始人兼CEO黄仁勋表示:
“代理式AI正在重新定义软件的能力,必须重塑其背后的计算基础设施才能跟上这一步伐。能够基于海量上下文进行推理并持续学习的AI系统,需要新的存储方案。NVIDIA STX重新定义了存储堆栈,为AI原生基础设施提供了模块化基础,确保AI工厂始终保持峰值性能高效运行。”
一、核心性能提升
与传统存储方案相比,NVIDIA STX架构带来显著性能提升:
| 指标 | 提升幅度 |
|---|---|
| 每秒Token吞吐量 | 提升高达 5倍 |
| 能效 | 提升高达 4倍 |
| 每秒处理的内存页数(企业级AI数据) | 提升 2倍 |
技术原理:
传统数据中心提供大容量通用存储,但难以满足代理式AI所需的响应速度
代理式AI需要实时访问数据和上下文工作记忆
STX通过引入高性能的上下文层来扩展GPU内存,实现可扩展的推理和代理式系统
二、技术架构:STX的核心组件
STX由NVIDIA Vera Rubin平台提供加速,集成了以下组件:
| 组件 | 功能 |
|---|---|
| NVIDIA BlueField-4处理器 | 针对存储优化的全新处理器,集成Vera CPU + ConnectX-9 SuperNIC |
| NVIDIA Spectrum-X以太网网络 | 高速网络互联 |
| NVIDIA DOCA | 软件框架 |
| NVIDIA AI Enterprise | 企业级AI软件 |
首个机架级部署方案集成了全新的NVIDIA CMX上下文记忆存储平台,通过引入高性能的上下文层来扩展GPU内存。
三、已获广泛生态采用
计划采用STX进行上下文记忆存储的主要AI实验室和云服务提供商:
CoreWeave、Crusoe、IREN、Lambda、Mistral AI、Nebius、Oracle Cloud Infrastructure (OCI)、Vultr
正在基于NVIDIA STX共同设计新一代AI基础架构的存储厂商:
Cloudian、DDN、戴尔科技、Everpure、Hitachi Vantara、HPE、IBM、MinIO、NetApp、Nutanix、VAST Data、WEKA
正在构建基于STX系统的制造合作伙伴:
AIC、Supermicro、Quanta Cloud Technology (QCT)
四、上市时间
基于STX的平台将于今年下半年由合作伙伴推出。
五、核心数据总结
| 指标 | 数据 |
|---|---|
| Token吞吐量提升 | 高达5倍 |
| 能效提升 | 高达4倍 |
| 内存页处理速度提升 | 2倍 |
| 计划采用的云/AI厂商 | 8家(CoreWeave、OCI、Mistral AI等) |
| 存储合作伙伴 | 12家 |
| 制造合作伙伴 | 3家 |
| 上市时间 | 2026年下半年 |
六、对企业与开发者的意义
如果您所在的企业正在部署代理式AI系统(如长期运行的智能体、多轮对话系统、长上下文推理应用),STX架构提供了:
解决存储瓶颈:传统通用存储无法满足代理式AI的实时性需求
扩展上下文能力:CMX平台通过高性能上下文层扩展GPU内存
更高能效:4倍能效提升,降低运营成本
模块化部署:参考架构便于厂商快速构建
广泛生态:已有领先云厂商和存储供应商采用
结语
代理式AI需要新的存储方案。NVIDIA STX重新定义了存储堆栈,为AI原生基础设施提供了模块化基础。
随着AI智能体从单次推理走向多步骤、多工具、长上下文的复杂任务,传统存储架构已成为性能瓶颈。STX通过BlueField-4处理器、CMX上下文记忆平台和Vera Rubin平台的协同设计,为AI工厂提供了高性能、高能效的存储基础设施。
WeChat
Profile