ChatGPT能耗真相:单次查询或仅0.3瓦时,远低于普遍认知
创始人
2025-02-12 10:20:26

近期,非营利性人工智能研究机构Epoch AI公布了一项关于ChatGPT能耗的新研究成果,挑战了之前广泛流传的能耗认知。据此前报道,ChatGPT回答一个问题所需的能耗约为3瓦时,这一数字是谷歌搜索的10倍。然而,Epoch AI的研究人员对此提出了不同看法。

Epoch AI通过对OpenAI最新的默认模型GPT-4o进行深入分析,发现ChatGPT的平均查询能耗实际上约为0.3瓦时,远低于许多日常家用电器的能耗水平。Epoch AI的数据分析师约书亚・尤在接受采访时表示,与日常使用的电器、调节室内温度或驾驶汽车相比,ChatGPT的能耗其实并不显著。

在AI行业快速发展的背景下,其能耗问题及对环境的影响日益受到公众关注。上周,超过100个组织联合发表公开信,呼吁AI行业和监管机构确保新建AI数据中心不会过度消耗自然资源,并避免依赖不可再生能源。

约书亚・尤指出,他开展这项分析的原因是之前的研究存在过时的问题。例如,得出3瓦时能耗估计的研究报告是基于OpenAI使用较老、效率较低的芯片来运行其模型的假设。尤表示,虽然公众普遍认识到AI在未来几年将消耗大量能源,但当前AI的能耗情况并未被准确描述。他还指出,之前3瓦时的估算数据是基于较旧的研究,且初步计算显示这一数字可能过高。

尽管Epoch AI的0.3瓦时数据是一个估算值,因为OpenAI尚未公布足够细节来进行精确计算,但这一研究仍然具有重要意义。同时,该分析并未考虑ChatGPT的图像生成、输入处理等额外功能所消耗的电量。尤承认,带有长文件附件等“长输入”的ChatGPT查询可能会比普通问题消耗更多电量。

然而,尤也预计ChatGPT的基础能耗未来可能会增加。他指出,AI将变得更加先进,训练这些AI可能需要更多能源。未来的AI可能会被更频繁地使用,并处理更复杂、更多的任务。OpenAI和整个AI行业的关注点也在向推理模型转移。与GPT-4o等能够近乎即时响应的模型不同,推理模型需要花费更多时间来“思考”答案,这一过程会消耗更多计算能力,从而导致更高能耗。

尤表示,推理模型将承担越来越多旧模型无法完成的任务,并为此生成更多数据,这都需要更多数据中心支持。尽管OpenAI已经开始推出更节能的推理模型,如o3-mini,但目前来看,这些效率提升似乎不太可能完全抵消推理模型“思考”过程以及全球AI使用量增加所带来的额外能耗需求。

相关内容

热门资讯

电竞选手的一条出路被堵死了 来聊一个比较悲伤的事情,那就是电竞奥运被叫停了。就在前几天,国际奥委会(IOC)已暂停电竞委员会全部...
WBG险胜WE,jiejie发... WBG险胜WE,jiejie发文活着 LPL赛事精彩依旧在火热进行中,这一次是WBG和WE对决,谁能...
《名利场2》投票网站已开放!全... 今日,北美先锋互动影像工作室 Interactive Films LLC 正式宣布,其备受瞩目的互动...
寻根不再大海捞针!AI 助力华... 曾经,寻根问祖依赖族谱、口传与模糊记忆,难如“大海捞针”。如今,AI“秒级匹配”正助力破解寻根难题。...
著名卫视宣布停播!网友:我的童... 5月6日,@星空卫视 发布关于星空卫视暂停卫星传输服务的公告,全文如下: 亲爱的观众朋友: 自200...