在NVIDIA GTC 2026上,AT&T、T-Mobile、Comcast、Spectrum等美国和亚洲领先运营商宣布,正在构建AI网格——即地理分布且互联的AI基础设施,利用其网络覆盖优势,在分布式边缘端提供并变现全新AI服务。
电信公司运营着全球最庞大的基础设施之一:全球约10万个分布式网络数据中心(覆盖区域中心、移动交换局和中心局),其富余电力足以提供超过100亿瓦的新增AI能力。
AI网格将现有的空间、电力和连接转化为地理分布式计算平台,使AI推理更靠近用户、设备和数据,从而实现最佳响应速度与单Token成本对齐。
一、六大运营商的具体实践
| 运营商 | AI网格进展 | 应用场景 |
|---|---|---|
| AT&T | 与思科、NVIDIA合作,构建面向IoT的AI网格 | 公共安全:与Linker Vision合作,在边缘端实现更快检测、告警与响应,同时确保客户对敏感信息的掌控 |
| Comcast | 将全美最大规模低延迟宽带网络转化为AI网格 | 对话智能体、互动媒体、GeForce NOW云游戏:验证显示更高吞吐量、更低每Token成本 |
| Spectrum | 覆盖5亿设备、延迟<10ms的网络,含1000+边缘数据中心 | 媒体制作:利用嵌入光纤网络中的远程GPU渲染高分辨率图形 |
| Akamai | 将Inference Cloud扩展至4400+边缘节点,部署数千块RTX Blackwell GPU | 游戏、媒体、金融、零售:根据请求匹配算力层级,降低Token成本 |
| Indosat Ooredoo Hutchison | 连接主权AI工厂与印尼各地边缘及AI-RAN站点 | 本地化AI服务:运行印尼语Sahabat-AI平台,服务数千岛屿数亿用户 |
| T-Mobile | 与NVIDIA合作探索基于RTX Blackwell的边缘AI | 智慧城市、工业、零售:LinkerVision、Serve Robotics等开发者已试点 |
二、三大AI原生服务激活AI网格
1. Personal AI:人类级对话智能体
借助NVIDIA Riva,在AI网格上运行小型语言模型
成果:端到端延迟低于500毫秒,每Token成本降低50%以上
2. Linker Vision:实时视觉AI变革城市管理
在分布式边缘站点处理数千路摄像头视频流
成果:交通事故检测速度提升10倍,灾害响应速度提升15倍,人群异常行为分钟级告警
3. Decart:实时视频生成
在网络边缘运行Lucy模型
成果:网络延迟低于12毫秒,互动视频流即时适配观众,高峰期仍流畅
三、AI网格参考设计与生态系统
NVIDIA发布了AI网格参考设计,定义在分布式站点部署与编排AI所需的核心组件,包括NVIDIA加速计算、网络与软件平台。
生态系统合作伙伴:
全栈合作伙伴:思科
基础设施合作伙伴:HPE
控制平面合作伙伴:Armada、Rafay、Spectro Cloud(实现跨分布式AI基础设施的工作负载编排)
思科运营商移动业务高级副总裁Masum Mir表示:
“物理AI正加速从集中式智能向网络边缘的分布式决策转变。我们与NVIDIA的合作整合了全栈能力——从NVIDIA GPU到思科的网络与移动能力——助力运营商支撑关键任务应用,交付实时推理。”
四、核心数据总结
| 指标 | 数据 |
|---|---|
| 全球分布式网络数据中心数量 | 约10万个 |
| 富余电力可提供的新增AI能力 | 超过100亿瓦 |
| Spectrum网络覆盖设备 | 5亿台 |
| Spectrum网络延迟 | 低于10毫秒 |
| Akamai边缘节点数 | 4,400+ |
| Personal AI端到端延迟 | <500毫秒 |
| Personal AI每Token成本降低 | >50% |
| Linker Vision交通事故检测速度提升 | 10倍 |
| Linker Vision灾害响应速度提升 | 15倍 |
| Decart网络延迟 | <12毫秒 |
五、对企业客户的启示
如果您所在的企业涉及物联网、智慧城市、实时AI应用、云游戏、边缘推理等场景,AI网格提供了新的基础设施选择:
更低延迟:推理在边缘完成,无需回传中心云
更低成本:每Token成本显著下降(Personal AI案例降低50%以上)
地理分布:覆盖区域中心、移动交换局、中心局
现有资源利用:复用电信网络的空间、电力和连接
已验证案例:从公共安全到互动媒体,多个生产级应用已运行
电信网络不再仅承载流量,而是成为AI规模化的核心。
AI网格将运营商的分布式网络基础设施,转化为统一的智能层,用于运行、扩展并变现AI工作负载。这不仅是基础设施升级,更是AI交付方式的结构性变革。
WeChat
Profile