在GTC 2026大会上,NVIDIA宣布了一系列围绕本地运行AI智能体的更新,覆盖开放模型、软件栈、微调工具及RTX优化。核心目标是:在保障隐私且免费的前提下,让NVIDIA DGX Spark桌面AI超级计算机和RTX PC能够出色运行个人智能体。
NVIDIA将生成式AI与OpenClaw等框架结合,定义为一种新的计算品类:智能体计算机。
一、全新开放模型:为本地智能体带来云端级品质
NVIDIA发布了或优化了多个支持本地智能体运行的开放模型,尤其适配DGX Spark(128GB统一内存,可支持超过1200亿参数模型)和RTX PRO工作站:
| 模型 | 参数量 | 特点 | 适用场景 |
|---|---|---|---|
| Nemotron 3 Super 120B | 1200亿总参数,120亿激活参数 | 在PinchBench(新基准测试)中得分85.6%,同类开放模型中领先 | DGX Spark或RTX PRO工作站上运行复杂代理式AI系统 |
| Nemotron 3 Nano 4B | 40亿 | 紧凑、低显存占用,指令遵循和工具使用能力强 | GeForce RTX用户,在RTX AI PC上本地构建智能体和助手 |
| Mistral Small 4 | 1190亿总参数,60-80亿激活参数 | 针对通用聊天、编程和智能体任务优化的超高效模型 | DGX Spark和RTX PRO GPU上本地运行 |
| 千问3.5(优化) | 27B/9B/4B版本 | 原生支持视觉处理、多Token预测和262K超大上下文窗口 | 27B稠密模型与RTX 5090 D v2 GPU搭配表现尤佳 |
用户现在可以通过Ollama、LM Studio和llama.cpp体验这些模型,借助RTX GPU和DGX Spark获得加速推理。
二、NVIDIA NemoClaw:针对OpenClaw的开源优化软件栈
随着OpenClaw等自主AI智能体日益广泛,对Token成本、安全和隐私的担忧也在加剧。为此,NVIDIA推出了NemoClaw——一个基于OpenClaw的开源软件栈,用于在NVIDIA设备上优化OpenClaw部署。
首批可用功能:
NVIDIA Nemotron本地模型:在本地运行推理,实现更好的隐私保护和零Token成本
NVIDIA OpenShell运行时:专为更安全地执行Claw而设计的运行时
三、Unsloth Studio:简化模型微调
为了进一步提升模型在代理式工作流上的准确度,NVIDIA与Unsloth合作。Unsloth发布了Unsloth Studio——一个易于使用的网页UI,旨在为AI爱好者和开发者简化微调流程。
核心特点:
支持500多种AI模型
用户只需上传数据集,通过图形画布生成合成数据并启动微调任务
支持量化低秩适配、低秩适配和完整微调
可实时监控并可视化任务进度
基于Unsloth库构建,在训练过程中实现最高2倍加速,同时节省高达70%显存
这意味着新用户无需复杂配置,即可充分利用其NVIDIA RTX GPU和DGX Spark的性能。
四、经RTX优化的最新创作AI模型
| 模型 | 优化内容 | 性能提升 |
|---|---|---|
| Lightricks LTX 2.3(音频视频模型) | 发布NVFP4和FP8蒸馏模型 | 性能提升至原来的2.1倍 |
| Black Forest Lab FLUX.2 Klein 9B | 发布FP8版本(与NVIDIA合作) | 图像编辑速度提升至原来的2倍,优化显存占用 |
五、GTC现场活动:Build-a-Claw
GTC现场参会者可前往GTC Park参与NVIDIA Build-a-Claw活动(持续至3月19日,每日上午8点至下午5点)。NVIDIA技术专家将现场指导参与者,通过自选设备定制并部署一款主动式、全天候的AI助手。无论技术背景如何,参与者均可为自己的AI智能体命名、自定义个性,并配置所需工具权限,最终打造出可通过常用即时通讯工具随时调用的个人助理。
六、其他RTX AI更新
RTX AI视频生成指南:展示如何使用ComfyUI中的RTX Video,从文本到图像生成视频关键帧,并升级到4K画质
NVIDIA AI for Media SDK:为直播媒体、视频会议和后期制作提供Broadcast级AI特效,更新包括更精准的唇形同步、多人对话实时检测、4K画质提升等
NVIDIA DLSS 5:将于今年秋季推出,以AI驱动游戏画质保真度突破
Maxon Redshift 2026.4:引入DLSS驱动的实时可视化工作流
Reincubate Camo:增加对Windows ML NVIDIA TensorRT RTX EP的支持,提升RTX GPU性能
七、对企业及开发者的启示
如果您正在考虑部署AI智能体(如OpenClaw)或本地运行大模型,NVIDIA此次发布提供了清晰的路径:
零Token成本 + 隐私保护:Nemotron本地模型在本地运行推理,无需调用云端API
从轻量到超大规模:从4B的Nemotron Nano到120B的Nemotron Super,覆盖不同硬件
简化微调:Unsloth Studio降低技术门槛,500+模型支持
安全执行:OpenShell运行时专门设计用于更安全地运行Claw
硬件底座:DGX Spark(128GB统一内存)和RTX PRO/GeForce GPU提供算力支撑
WeChat
Profile