中国科学家最近在量子化学计算领域干了件大事双威团队用AI技术,在Oceanlite经典超级计算机上,第一次成功模拟了120个自旋轨道的分子系统。
这台超算可不是吃素的,光处理器核心就有3700万个,最后算出来的效率还特别顶:强扩展效率92%,弱扩展效率98%,直接刷新了经典超算做量子化学计算的纪录。
以前搞量子化学模拟,就是“粒子越多越头疼”。
传统超算碰到大分子系统,比如超过50个自旋轨道的,基本就歇菜了,因为量子里的波函数计算,粒子数量一涨,状态空间就跟翻跟头似的往上涨,根本算不过来。
这次能搞定120个,全靠一个叫“神经网络量子态”的技术,把AI和量子计算的优点捏到一块儿了。
这次突破的核心,就是让AI帮超算“学会猜电子在哪儿”。
传统方法是给超算一个问题,让它死算,算完就把中间的思路扔了,下次碰到类似的还得重新来。
但神经网络量子态技术不一样,它给AI搭了个专属框架,让AI先学分子波函数的规律。
比如算电子的位置,AI不是一个一个试,而是先观察“电子最可能待在哪儿”,然后调整自己的参数,直到预测的能量模式和分子真实情况对上。
这就像学生做题,不是背答案,而是学公式、找思路,下次换个数字也能算对。
之前美国劳伦斯伯克利国家实验室,用经典超算最多模拟68个自旋轨道,效率才81%。
咱们这次120个,效率还接近满分,差距一下就拉开了。
而且这技术不光能算得多,还能用在实处,比如模拟催化剂分子结构。
以前传统方法算不准,工业上好多催化剂研发只能靠试,现在有了这技术,能精准算出来,研发速度能快不少。
本来想觉得超算就是堆算力,核心越多越厉害,后来发现根本不是。
这次要是没AI帮着找规律,就算有3700万核心,也得跟以前一样,算到一半就卡壳。
所以说,AI和超算配合,才是真的强强联合。
光有AI技术还不够,超算的硬件和算法也得跟上。
这次用的SunwaySW26010-Pro处理器,是咱们中国自主设计的,跟那些专门跑AI的处理器不一样,它就是为高性能计算造的,支持好几种数据格式,特别能扛heavy活。
研究团队为了适配这处理器,还搞了个“分层通信模型”。
简单说就是分工明确:有专门的“管理核心”当项目经理,负责协调不同处理器、不同节点之间的数据,别乱传;剩下3700万个“计算核心”就当员工,专门干量子计算的细活,不用管别的。
这样一来,通信和计算不打架,效率自然高。
还有个关键是“动态负载平衡算法”。
量子计算有个毛病,就是有的任务简单,有的难,要是平均分活,容易有的核心闲得慌,有的累死。
这算法就像个监工,实时看每个核心的工作量,哪个闲了就多派点活,保证所有核心都满负荷转,这才拿到98%的弱扩展效率。
自主硬件太重要了。
要是处理器是别人的,底层逻辑搞不懂,想优化都没辙。
这次从处理器到算法全是自己弄,才能把效率拉满。
对比国外有些研究,硬件依赖进口,优化到一半就卡脖子,咱们这自主路线,走得是真对。
当然,这事儿也不是没挑战。
Oceanlite超算单次模拟得耗两万多度电,成本不低,长期用还得想办法降成本。
而且现在还在验证阶段,要用到新药研发、新材料设计上,还得再完善。
比如做新药,要模拟药物分子和靶蛋白的相互作用,现在误差能降到15%以下,但还想再低点儿,这样研发出来的药更靠谱。
这突破不光是技术上的,更说明咱们中国在量子科学、AI、超算这些前沿领域,已经能从跟跑变成并跑,甚至领跑了。
以后要是能把成本降下来,再拓展点应用场景,说不定能帮咱们搞出更多黑科技,比如更耐用的锂电池、更有效的抗癌药。
这事儿不是终点,是起点,值得期待。