NVIDIA CUDA-Q平台赋能谷歌量子AI研究人员,助力其构建大规模数字模型以攻克量子计算机设计难题
SC24新闻发布:NVIDIA与谷歌量子AI携手,利用CUDA-Q平台加速下一代量子计算器件设计
NVIDIA今日宣布,正与谷歌量子AI紧密合作,利用NVIDIA CUDA-Q™平台进行模拟,以期加速下一代量子计算器件的设计进程。这一合作标志着量子计算领域的一次重要突破,旨在克服当前量子计算硬件的局限性,特别是“噪声”问题,该问题限制了量子运算的数量和计算的持续性。
谷歌量子AI正在运用量子-经典混合计算平台和NVIDIA Eos超级计算机,对其量子处理器的物理特性进行深入模拟。研究科学家Guifre Vidal指出:“要实现商用量子计算机,关键在于在控制噪声的同时扩展量子硬件的规模。NVIDIA的加速计算技术为我们提供了探索更大规模量子芯片设计中噪声影响的手段。”
量子硬件设计中的噪声问题需要进行高度复杂的动态模拟,以全面理解量子比特与周围环境的相互作用。然而,这些模拟在过去往往因计算成本高昂而难以实现。现在,借助CUDA-Q平台,谷歌能够在NVIDIA Eos超级计算机上利用1024个NVIDIA Hopper Tensor Core GPU,以极低的成本进行世界领先、速度最快的量子器件动态模拟。
NVIDIA量子和高性能计算总监Tim Costa表示:“强大的AI超级计算是量子计算取得成功的关键。谷歌对CUDA-Q平台的使用充分展示了GPU加速模拟在推动量子计算方面的核心作用,这将为解决现实世界中的众多问题提供助力。”
通过CUDA-Q和Hopper GPU,谷歌成功地对包含40个量子比特的器件进行了逼真的全面模拟,这是同类模拟中规模最大的一次。借助CUDA-Q提供的模拟技术,原本需要一周时间完成的噪声模拟现在仅需几分钟即可完成。
NVIDIA还宣布,驱动这些加速动态模拟的软件将公开发布在CUDA-Q平台上,以便量子硬件工程师能够快速扩展他们的系统设计。这一举措将进一步推动量子计算领域的发展,为未来的量子计算机设计提供强有力的支持。