IT之家 1 月 29 日消息,劳伦斯伯克利国家实验室(LBNL)科学家团队于 1 月 10 日发布重磅研究,提出“热力学计算”(Thermodynamic Computing)概念,理论上可将 AI 图像生成的能耗降低至当前水平的百亿分之一。
IT之家注:传统的电脑用晶体管的“开”和“关”(0 和 1)来计算,这需要消耗大量电力。热力学计算则像是在利用大自然的物理规律“顺水推舟”,通过物理系统自然的热运动和能量变化来自动寻找问题的答案,就像让水自然流向低处来指引路径,而不是用水泵强行抽水,因此理论上能耗极低。
该研究由 LBNL 科学家 Stephen Whitelam 与 Corneel Casert 共同完成,于 1 月 10 日发表于《自然-通讯》的论文中,揭示了构建“热力学神经网络”的可能性。随后,在 1 月 20 日发表于《物理评论快报》的研究中,团队通过传统计算机模拟验证了这一构想。
Whitelam 指出,传统的数字芯片需要消耗能量来制造伪随机噪声并进行计算,而热力学计算机则直接利用环境中普遍存在的随机热波动(即“自然噪声”)。
纽约初创公司 Normal Computing 已开发出一种包含八个谐振器的原型芯片,通过特制的耦合器连接。在计算时,系统利用谐振器引入噪声,待网络自然达到热平衡状态后,新的谐振器配置即为计算结果。这种物理机制从根本上省去了模拟噪声所需的巨大能耗。
研究人员坦言,目前的解决方案尚处于极其初级的“雏形阶段”(Rudimentary)。现有的原型机虽然验证了原理的可行性,但要制造出在性能、稳定性和规模上能与当前成熟的数字 AI 模型(如 NVIDIA 的 GPU 集群)相媲美的硬件,仍需在材料科学和工程设计上付出巨大的努力。
参考