量子计算是AI泡沫“终结者”吗

□ 刘延嘉

  • 来源:科普时报
  • 作者:
  • 2025-12-19 10:54

人工智能(AI)产业繁荣的背后,关于“AI泡沫”的讨论也甚嚣尘上。近日,英特尔前CEO一句“十年内GPU(显卡)将被量子计算取代,AI泡沫终将破裂”的预测,一石千浪。

当前,AI的推进方式极具“暴力美学”:用更多的GPU、耗更多的电、练更大的模型——这条路径的物理极限已隐约可见了。新兴的量子计算,能终结AI泡沫吗?

GPU撑不起AI的“无限狂欢”

OpenAI为训练GPT-4,消耗了2.5万块A100显卡数月的算力。下一代模型的参数规模和训练成本,还在指数级攀升。

这种“堆GPU”的模式,正面临绕不开的坎。

首先是能源不够用。一个大型AI数据中心的功耗,能达到数百兆瓦,相当于一座中等城市的总用电量。GPU能效的改善速度,远远赶不上模型规模的膨胀。

其次是物理到顶了。摩尔定律放缓已是事实,芯片制程逼近原子大小,量子隧穿等物理现象会干扰晶体管工作,传统芯片的提升空间越来越小。

第三是钱烧不起。训练一个前沿大模型要好几亿美元,但模型能力的提升却越来越慢,投入回报比正在持续缩水。

当投入产出比越来越差,资本的热情迟早会冷却。所谓的AI泡沫隐忧,其实就是增长模式的不可持续。

量子计算或重构AI底层逻辑

那么,量子计算能帮AI突破算力“天花板”吗?

首先纠正一个误区:量子计算机不是万能的“超级加速器”,它只对特定问题有指数级优势。其核心优势,在于“量子叠加”和“量子纠缠”带来的并行计算能力。基于深度学习的AI最常用的是大规模矩阵乘法和梯度计算。将现有的神经网络直接“搬”到量子计算机上,显然实现不了算力的飞跃。

真正有潜力的是“量子原生”的机器学习算法。比如,变分量子电路可以当新型神经网络用,量子核方法可以更好地处理高维数据,量子采样技术能加速概率模型的训练。当然,这些方向目前停留在基础阶段,离实际应用还较远。

与其说量子计算会“重构”AI的底层逻辑,不如说它可能为AI开辟一条与经典计算互补的新赛道——不是简单替代,而是融合与扩展。

量子AI的边界与未来

那么,量子AI到底有没有可能成真?

目前业内普遍共识是:长期看好,短期谨慎。

从技术成熟度看,现在的量子计算机还处在“含噪声中等规模量子”(NISQ)时代。量子比特数量少、稳定时间短、错误率高,这些基础问题决定未来5到10年,量子AI很难对经典AI造成实质威胁,至少在AI应用领域是这样。

但长远看,量子AI的前景值得期待。一方面,量子纠错技术在进步,虽然容错量子计算机还得等好几年甚至更久,但技术路线是清晰的。另一方面,量子计算在优化和模拟问题上的天然优势,可能催生出经典计算机做不到的AI应用,进而推动量子计算更广泛的落地。

当前的AI“狂欢”或许蕴含泡沫,但泡沫破裂未必是灾难,也可能是产业走向成熟与理性的契机。量子计算或许不是AI泡沫“终结者”,但必然是推动下一次技术革命的重要力量。

(作者系中国科学院计算技术研究所工程师)

相关新闻

  • TEL:010-58884104
  • E-Mail:kepu@kepu.gov.cn
  • 如果您有任何意见或建议,请联系我们!