咨询热线 4001616691
联系我们 中国大陆 CNY

新闻中心

NVIDIA加速本地AI革命:Gemma 4模型全面落地RTX生态 NEWS DETAIL

当前位置:首页 > 新闻中心
资讯分类 · 新闻中心 发布时间 · 2026-04-09

NVIDIA加速本地AI革命:Gemma 4模型全面落地RTX生态

在生成式AI从云端走向本地设备的趋势下,NVIDIA 正在推动一场“端侧AI”变革。近日,NVIDIA在其RTX AI Garage技术博客中宣布,与Google合作优化的Gemma 4开放模型家族,已全面适配RTX GPU生态,实现从数据中心到个人电脑、再到边缘设备的全场景部署。


本地AI时代加速到来:从云端走向设备端

随着AI模型能力持续提升,行业正在从“云端计算”转向“本地智能”。相比传统云AI,本地AI具备三大优势:

  • 更低延迟(实时响应)

  • 更高隐私性(数据不出设备)

  • 更低长期成本(无需持续调用API)

NVIDIA表示,Gemma 4正是为这一趋势而设计的一代模型,可在多种设备上高效运行,并充分利用本地上下文,实现更智能的自动化与决策能力。


Gemma 4核心升级:小模型,大能力

此次发布的Gemma 4模型家族,主打“轻量化 + 高性能 + 全模态能力”,覆盖四个版本:

  • E2B / E4B:面向边缘设备与移动端,强调低功耗与超低延迟

  • 26B / 31B:面向高性能推理与开发者应用,支持复杂AI任务

这些模型具备以下关键能力:

  • 强推理能力(复杂问题求解)

  • 代码生成与调试

  • 原生支持AI智能体(函数调用)

  • 多模态能力(文本、图像、视频、语音)

  • 多语言支持(35+语言,140+预训练语种)

特别值得关注的是,E2B与E4B模型可在边缘设备上实现接近零延迟的离线运行


RTX全栈加持:从PC到边缘全面覆盖

在硬件层面,Gemma 4已全面适配NVIDIA计算平台,包括:

  • RTX AI PC与工作站

  • NVIDIA DGX Spark个人AI超级计算机

  • Jetson Orin Nano边缘AI设备

  • 数据中心GPU平台

借助NVIDIA Tensor Core与CUDA软件栈,Gemma 4模型在本地运行时可实现更高吞吐量与更低延迟,同时兼容主流AI开发框架,实现“开箱即用”。


开发生态完善:本地部署门槛大幅降低

为加速开发者落地,NVIDIA已联合多家工具链厂商提供支持:

  • Ollama:一键运行本地大模型

  • llama.cpp:轻量级推理框架

  • Unsloth Studio:模型微调与优化

开发者无需复杂优化,即可在RTX设备上快速部署、微调并运行Gemma 4模型,大幅降低本地AI开发门槛。


迈向“代理式AI”:从工具到智能执行体

Gemma 4不仅是模型升级,更是AI形态的演进。

其对“函数调用”和工具链的原生支持,使其成为构建**Agentic AI(代理式AI)**的重要基础。结合本地数据与应用上下文,AI可以:

  • 自动执行任务

  • 调用工具链

  • 理解用户环境

  • 实现端侧智能助手

这也意味着,未来AI将从“回答问题”进化为“完成任务”。