中科创达基于NVIDIA TensorRT Edge-LLM开源推理框架构建了面向座舱业务的多模态AI服务架构。该架构支持连续批处理与流式推理,多并发场景下吞吐量提高2.4倍。
基于DRIVE AGX Orin平台,与头部车企打造并全球首发新一代AI座舱,将推理延迟降至秒级。TensorRT Edge-LLM支持投机解码、NVFP4量化等特性,适用于DRIVE AGX及Jetson平台。
按品牌与产品线快速定位,减少查找成本。
进入品牌页查看对应产品与项目资料;如已配置子分类,可在下方快速进入。
进入品牌页查看对应产品与项目资料;如已配置子分类,可在下方快速进入。
进入品牌页查看对应产品与项目资料;如已配置子分类,可在下方快速进入。
进入品牌页查看对应产品与项目资料;如已配置子分类,可在下方快速进入。
中科创达基于NVIDIA TensorRT Edge-LLM开源推理框架构建了面向座舱业务的多模态AI服务架构。该架构支持连续批处理与流式推理,多并发场景下吞吐量提高2.4倍。基于DRIVE AGX Orin平台,与头部车企打造并全球首发新一代AI座舱,将推理延迟降至秒级。TensorRT Edge-LLM支持投机解码、NVFP4量化等特性,适用于DRIVE AGX及Jetson
中科创达基于NVIDIA TensorRT Edge-LLM开源推理框架构建了面向座舱业务的多模态AI服务架构。该架构支持连续批处理与流式推理,多并发场景下吞吐量提高2.4倍。基于DRIVE AGX Orin平台,与头部车企打造并全球首发新一代AI座舱,将推理延迟降至秒级。TensorRT Edge-LLM支持投机解码、NVFP4量化等特性,适用于DRIVE AGX及Jetson
如果你正在评估对应场景,我们可以基于当前方案继续细化产品组合、测试路径与实施节奏。
浏览更多相关方案查看方案背景、关键能力与适配场景,帮助你更快判断下一步应进入测试、咨询还是部署阶段。
企业网络、AI 基础设施与高性能连接解决方案合作伙伴
工作日 09:00 - 18:00,支持售前咨询、项目对接与方案沟通。
立即咨询通过微信或资料二维码,快速获取咨询与企业信息。
WeChat
微信咨询
Profile
企业资料