咨询热线 4001616691
联系我们 中国大陆 CNY

新闻中心

NVIDIA 与中科创达推动智能座舱进入“AI 定义”时代 NEWS DETAIL

当前位置:首页 > 新闻中心
资讯分类 · 新闻中心 发布时间 · 2026-04-23


中国北京——2026年1月12日——随着座舱屏幕数量和算力趋近用户感知上限,智能座舱的竞争焦点正由硬件堆叠转向智能体验。NVIDIA今日宣布与全球领先的智能操作系统及端侧AI产品提供商中科创达深化合作,共同推动智能座舱进入“AI定义”时代。

双方合作的核心是NVIDIA TensorRT Edge-LLM——一个专为车载等边缘端大模型部署打造的轻量级开源推理框架。该框架面向智能汽车等实时端侧应用场景,针对少量用户/低批量推理、离线运行、极致性能与高可靠性等核心诉求进行了深度优化。

TensorRT Edge-LLM:为边缘端大模型而生的开源推理框架

TensorRT Edge-LLM具备以下核心特性:

  • 纯C++运行时:开源代码,依赖极少,易于集成与生产部署

  • 超轻量化设计:专注嵌入式场景,资源占用最小化

  • 高性能计算:优化的CUDA内核与TensorRT集成,实现最大吞吐量

  • 高级能力:支持投机解码、NVFP4量化、动态LoRA切换、先进KV缓存管理等

  • 统一工具链:同一推理工具链适用于NVIDIA DRIVE AGX、Jetson及MediaTek Dimensity Auto座舱平台

NVIDIA此次开源TensorRT Edge-LLM,旨在将成熟的AI开发生态优势向边缘端延伸,统一技术规范以降低车企开发门槛,为AI模型厂商提供标准化适配路径,并加速商业化落地。

中科创达基于TensorRT Edge-LLM的创新实践

基于TensorRT Edge-LLM运行时,中科创达进一步构建了面向座舱业务的多模态AI服务架构,具备以下特点:

  • 统一的AI服务接口:支持LLM、VLM及混合输入的HTTP推理服务;支持Continuous Batching与Streaming推理,在多并发场景下吞吐量提高2.4倍

  • 跨SoC平台的快速适配:统一的推理后端抽象层,实现平滑迁移,显著降低适配成本

  • 面向业务负载的推理任务调度和优化:支持根据业务优先级对推理任务进行挂起与恢复;在Qwen2.5-VL-7B模型上实现1.59倍推理加速

  • 与算法训练团队协同工作:具备自主训练EAGLE3 draft model及LoRA微调能力,形成闭环

客户合作案例

案例A:重构AI座舱交互——基于NVIDIA DRIVE AGX Orin的端侧算力与视觉大模型融合实践

基于DRIVE AGX Orin平台,中科创达与某头部车企携手,成功打造并全球首发了新一代AI座舱。关键AI场景的端到端推理延迟降至秒级:

  • AI增强哨兵场景:2.6秒

  • AI迎宾场景:0.6秒

  • 下车安全场景:0.7秒

  • 停车记忆场景:0.8秒

中科创达成功解锁了AIBOX (DRIVE AGX Orin) A样的量产能力,实现了全球首次交付。

案例B:面向下一代车载自然交互的端侧大模型记忆实践

中科创达与某全球头部车企合作,在车规级高性能AI算力底座上部署并优化了Qwen3-VL-4B视觉语言模型,成功实现了“长聆听”与“端侧主动记忆”两大原型功能,为探索无界面的自然交互奠定了基础。

面向未来的合作维度

NVIDIA与中科创达将聚焦于三个维度:

  1. 基于量产数据和用户反馈持续优化DRIVE平台上的性能表现

  2. 共同开发支持个性化服务与座舱AI Agent框架

  3. 为车企提供从模型选型、量化优化到Agent部署集成的完整工具链与参考框架

NVIDIA与中科创达基于各自的核心能力形成深度互补,共同为行业提供从底层算力到上层应用的全栈解决方案,推动智能座舱从“功能定义”迈向“AI定义”的范式变革。