来源:数科星球公众号
(图片来源:Pixels)
是最好的时代,也是最卷的时代。
@数科星球DigitalPlanet原创
作者丨嘟嘟与石榴
编辑丨大兔
2025年的新年,人们十足地过了一把“AI年”。除了机器人和无人机地表演外,最炸裂的莫过于DeepSeek了。
目前,该模型受到世界范围内的用户青睐。其中,在Token价格方面,DeepSeek-R1相对于OpenAI的o3-mini低约50%。
在日活跃用户方面,业界统计,前者已在短时间之内达到2215万,距离ChatGPT的5323万已达到其41.6%。顺理成章地,DeepSeek成为历史上用户增长最快的AI产品。
一些受访者对DeepSeek的用户增长十分自信,并表示其可能会成为世界上用户量最大的AI产品。
现在,人们在用它学习外语、诊断姻缘甚至玄学算命(部分功能受限)。它的回答“更懂”国人,相当多的人已经形成了DeepSeek依赖。
从对于AI行业发展的结果来看,DeepSeek所带来的影响正在释放。首先,它降低了AI应用的算力成本。“很多以前只能用‘H卡’(英伟达H系列GPU)跑的需求,现在4090就能跑。”一位从业者回答。
其次是,对比其他家流量较小的开源模型,DeepSeek正在展现出十足商业潜力。
但目前,全民DeepSeek的热潮下,仍不足以打破英伟达等AI巨头的垄断,而国产卡的未来仍然任重道远。
01
DeepSeek是对AI行业的利好
西安电子科技大学电子工程学院教授、博士生导师吴家骥认为,DeepSeek出现后,美国科技头牌企业构筑的垄断门槛逻辑出现问题。
过去,OpenAI等公司在研发上投入巨大,但DeepSeek以极低的训练成本实现了与行业领先水平相当的模型效果。这表明,高投入并非实现技术突破的唯一路径。
一位前小米高管认为,DeepSeek最大的价值在于算法。
技术上,DeepSeek在算法和工程方面围绕MoE(混合专家模型)进行了创新,从V2的160个专家扩展到V3的256个专家,实现671B参数量下仅需激活37B参数的高效运算,突破了MoE模型此前训练难度大的限制。
直接影响是,它削弱了美国闭源模型的市场竞争力。
庞大的日活用户和几次封禁DeepSeek的失败,让AI人才有了逆流之势。据了解,在关于DeepSeek的制裁令发布后72小时内,DeepSeek硅谷研究院收到327份来自美国头部科技公司的求职申请,包括17名Meta首席工程师。
青云科技市场总监王玉圆认为,ChatGPT是行业的第一把火,而DeepSeek是另一个里程碑。
在她看来,在开源领域,Meta的Llama也没有达到如此热度。最为重要的是,DeepSeek所引导的低成本、高性价比模型将催生AI发展的下一轮百花齐放。“这无疑是对做AI应用和个人开发者的重大利好”,她补充。
一位AI应用开发者对数科星球DigitalPlanet称,他曾尝试用8G显存的笔记本电脑跑DeepSeek7B私有部署大模型。虽然只是理论上能跑,具体效果还不甚理想,但他已经“非常感动”了。
因为,一旦未来该款大模型可进行进一步的向下兼容,那么他将不需为GPU算力公司缴纳高昂的算力费用。
他向数科星球DigitalPlanet展示了自己正在开发的自动考试和做题软件。需要用到实时算力以生成考试题,在他看来,这种项目要求算力水平不高,如果算力问题解决,那么会成为颇受欢迎的AI应用。
王玉圆认为,AI算力成本的下降会催生更多AI应用的诞生,所有的应用都会用生成式AI的逻辑再做一遍(从春节期间,人们在各种领域的尝试,可见一斑)。
而同时,因为国产和私有部署的缘故,以往对AI较为保守的ToB客户的热情也在被调动。一些从业者的回复称,新年开年上班第一天,他所在的公司已在着手推动新的AI产品采购计划。
所以,可以说,DeepSeek的火爆,是对AI行业的利好。
02
DeepSeek刺激了算力行业发展
DeepSeek对算力供应商而言,展现了惊人的”鲇鱼效应“。
一位算力行业从业者提到,“以前,要租一个算力机柜要5年起租”。
据数科星球DigitalPlanet计算,彼时便宜的算力机柜可能每月3000元左右,5年总价约18万元;贵的如一些一线城市核心地段、高功率、高配置并带有优质服务和高带宽的机柜,每月可能12,000元甚至更高,5年总价约72万元及以上。
而现在,用户已可以选择按Token计费、按算力计费(选卡,选租赁时间)两种模式。所以,大面积的AI开发者的加入、算力成本的下降加之性能优化可能让闲置算力得到再次利用。
“DeepSeek的火爆有可能改善目前智算中心的经营模式”,一位前IDC从业者透露。在他看来,目前的智算中心虽搭建颇多,但运营情况不佳。“我估计,80%的国产算力卡都在闲置,但凡能租赁的算力都是英伟达卡”。
这种闲置的规模颇大,他透露,一些智算中心甚至有50%是国产卡(硬性要求)。在过去,国产卡在训练的效果不佳,只能分担一些推理需求(大模型共分训练和推理两个使用算力的场景)。
不过在算力出现新的使用方式后,国产卡的使用率有可能提升。
吴家骥认为,作为大模型厂商而言,不选择国产卡的理由是“尽量减少折腾”,模型厂商更需要稳妥方案、专心研究模型技术而不是和GPU厂家搞适配。
那么DeepSeek是怎么做出来的?
一些专家指出,它使用了PTX(比CUDA更底层)而不是完全使用CUDA(英伟达深度学习的生态系统)。
PTX允许开发者对GPU进行更细粒度的控制,能更精准地调度计算任务,实现更高效的计算资源利用。在处理大规模分布式训练时,可避开CUDA框架的抽象层,减少潜在的效率损失,有数据表明PTX优化可提升约16%的理论算力。
影响是,在当前国产GPU发展的背景下使用PTX,便于DeepSeek未来适配国产GPU。它只需了解国产硬件驱动提供的基本函数接口,就可仿照英伟达GPU硬件的编程接口编写相关代码,为国产GPU的软件兼容性突破提供参考。
吴家骥认为,DeepSeek之所以选用PTX技术,反而是因为他们没有足够多的卡。“如果卡够多,也不会考虑的”,他说。
应该说,从这个角度而言,DeepSeek的最大贡献是,可以让厂商选择非英伟达硬件时也可以高效运行模型。
当然,至少目前想要冲击英伟达的市场,还需不断完善生态。在DeepSeek的刺激下,目前一些对成本敏感或有自主可控需求的用户,可能会更倾向于选择国产GPU产品。
总而言之,可以肯定的是,DeepSeek的出现可以在一定程度上缓解高端GPU禁售的影响。
03
端侧模型:AI硬件的新想象
DeepSeek的远期影响是AI硬件。长久以来,端侧模型成为了制约AI硬件发展的桎梏。而目前,这种情况有望缓解。
现在,手机的显存通常在4GB-12GB之间。中高端手机为例,真正能分配给模型的显存可能仅在2GB-4GB左右。由于手机散热、功耗等方面的限制,长时间高负载运行大显存模型会导致手机发热严重、电量消耗过快,影响用户体验。
而由于更便宜、更好用的大模型到来后,AI硬件的大面积改良或将成为可能。
一位AI硬件创业者指出,DeepSeek的出现改变了AI硬件在大模型行业发展的方向。其中,众多团队开始向算法效率优化倾斜。
在未来可预期的范围内,针对AI硬件的算法将出现海量迭代。
此外,由于DeepSeek的推理成本降至OpenAI模型的1/50,使得AI手机、AI眼镜、智能穿戴等设备能够采用低功耗芯片实现高性能AI功能。
所以硬件的开发门槛也被降低了。
正如上文所述,在海量AI应用呼之欲出之际,将倒逼AI硬件的进化。有乐观人士称,端侧智能与国产替代将成为新的核心增长引擎。
关于DeepSeek的影响,你还知道哪些?