AI 大模型的江湖最近又有大动静啦!DeepSeek 这波操作,直接把行业关注度拉满,快跟我一起来看看~
开源与优惠齐飞:DeepSeek 的本周惊喜(Open - sourcing and Discounts: DeepSeek's Surprises This Week)
这周可是官方钦定的「开源周」,DeepSeek 火力全开,陆续开源了四个项目。周四更是放出大招,推出了能实现计算与通信双向并行的 DualPipe(双向管道)。同时,DeepSeek 还搞了个超吸睛的操作 —— 错峰定价。
周三(2 月 26 日),DeepSeek 官宣,从当天起,北京时间每日 00:30 至 08:30 的夜间空闲时段,DeepSeek 开放平台开启错峰优惠活动。巧的是,前一天它才刚恢复官方的 API 充值服务。
说到优惠,DeepSeek 那是相当给力!根据官方公告,DeepSeek API 调用价格在夜间空闲时段大幅下调。DeepSeek - V3 直接降至原价的 50%;DeepSeek - R1 更是低至 25%,相当于降了 75%,这力度,简直是给开发者们送福利呀🎁!
具体价格调整看图就一目了然啦(此处可插入原文价格调整图),总之就是实实在在地帮大家省钱。重点来啦,和 DeepSeek - V3 发布之初有明确时间期限的「优惠体验期」不同,这次的错峰优惠只有「时段限制」,没有「期限」。简单来说,我们可以把这个错峰优惠当成长期有效的「错峰定价」策略。
还有个有趣的点,两款模型不仅优惠时段相同,优惠后的价格也完全一样了:输入(缓存命中)为 0.25 元 / 百万 tokens;输入(缓存未命中)为 1 元 / 百万 tokens;输出为 4 元 / 百万 tokens。这说不定是 DeepSeek 有意为之哦,通过在优惠时段拉齐定价,既能降低开发者使用 DeepSeek - R1 的成本顾虑,还模糊了两种模型的界限,鼓励开发者按自己需求灵活调用,真的很 smart👍。
就像前两天 Anthropic 推出的全球首款混合推理模型 ——Claude3.7Sonnet,融合了传统模型的「迅速回答」和推理模型的「高级推理」优势,给用户更灵活的计算和更适配的 AI 体验(此处可插入 Claude 相关图片)。
DeepSeek - R1 杀价:性价比之王诞生?(DeepSeek - R1 Price Cut: 717919.com/dy24xszz-1715.html The Birth of the King of Cost - effectiveness?)
这里要给大家说明一下,DeepSeek - V3 其实之前就「降过价」。雷科技之前报道过,DeepSeek - V3 的「优惠体验期」在本月初结束。在那之前,全时段的优惠价甚至比现在优惠时段的价格还便宜:输入(缓存命中)为 0.1 元 / 百万 tokens;输入(缓存未命中)为 1 元 / 百万 tokens;输出为 2 元 / 百万 tokens。
但 DeepSeek - R1 不一样哦,发布以来价格一直没变动,输入(缓存命中)1 元 / 百万 tokens、输入 (缓存未命中) 4 元 / 百万 tokens、输出 16 元 / 百万 tokens。所以这次 DeepSeek - R1 高达 75 折的「错峰降价」就显得格外惊喜。
如今,DeepSeek - R1 的实力已经无需多言。不管是产品层面思维链的创新,还是工程层面实现的极致成本控制,都让它成为当下最成功的模型之一。在这个基础上降价,无疑是降低开发者调用成本和门槛的有力策略,还能让更多 AI 应用(通过接入 DeepSeek)为用户带来更好的 AI 体验。
事实上,在标准时段,DeepSeek 的价格就已经比其他厂商的不少大模型更实惠了。而到了优惠时段,DeepSeek 更是比很多主力大模型都要便宜。(此处可插入价格对比图)
拿字节跳动旗下的豆包通用模型来说,火山引擎平台显示的价格是:doubao - pro - 32k,输入为 0.8 元 / 百万 tokens,输出为 2 元 / 百万 tokens;doubao - pro - 128k /doubao - pro - 256k,输入为 5 元 / 百万 tokens;输出为 9 元 / 百万 tokens。甚至在火山引擎上,deepseek - r1 - distill - qwen - 32b(蒸馏版)的价格是:输入 1.5 元 / 百万 tokens、输出 6 元 / 百万 tokens。也就是说,DeepSeek - R1 官方满血版在优惠时段的价格,比 32b 蒸馏版还要便宜,这性价比,绝了!
而且 DeepSeek 在海外也推出了同样的运营策略,同样有 50% 和 75% 的大幅降价,优惠时段直接对应北京时间 00:30 至 08:30。换算一下,伦敦时间 16:30 至 00:30、纽约时间 11:30 至 19:30 都能享受到 DeepSeek 官方的优惠时段价格。这对不少面向海外用户市场的开发者来说,吸引力超强,简直是在高峰时段享受到了优惠价。
错峰优惠来袭:豆包们如何接招?(The Arrival of Off - peak Discounts: 717919.com/dy24xszz-2510.html How Will Doubao and Others Respond?)
错峰定价其实不算特别新奇,像我们熟悉的错峰电价,不同时段用电价格就有很大差异。国内设置峰谷电价,就是为了避免用电高峰紧张、低谷空置,通过峰谷价差鼓励用户错峰用电,既能优化电网资源配置,又能帮用户节省成本,实现经济效益和生态效益双赢。
DeepSeek 官方在新闻稿中也提到类似说法,表示推出错峰优惠活动是为了「鼓励用户充分利用这一时段,享受更经济更流畅的服务体验」。从开发者角度看,这种错峰定价运营策略几乎百利而无一害。从大模型厂商和云计算平台角度看,也能更大程度利用服务器资源,利大于弊。
所以目前来看,大模型跟进错峰定价策略很有可能成为趋势,只是在具体策略上会根据不同时区(不同用户市场)等因素有所调整。但 DeepSeek 这次操作,会不会引发行业连锁反应,复刻一年前的大模型价格战呢?还得再观望观望。
很多关注 AI 的小伙伴可能记得,2024 年 5 月初,当时不太起眼的 DeepSeek 发布了第二代 MoE 大模型 DeepSeek - V2,首次引入多头潜在注意力(MLA)机制,拥有 2360 亿参数,每个 token 210 亿个活跃参数,堪称当时最强的开源 MoE 模型。但更惊人的是它的价格,输入 1 元 / 百万 tokens、输出 2 元 / 百万 tokens。在当时,这个价格仅为 ChatGPT 主力模型 GPT - 4Turbo 的近百分之一,性价比直接秒杀国内外一众大模型,也让大家记住了 DeepSeek,还送它「AI 界拼多多」的称号。
DeepSeek - V2 发布后,中国大模型价格战瞬间爆发,字节、腾讯、百度、阿里等大厂纷纷降价。通义千问对标 GPT - 4 的主力模型 Qwen - Long,API 输入价格从 20 元 / 百万 tokens 降至 0.5 元 / 百万 tokens。这次「错峰定价」策略,结合 DeepSeek 在开源周展现出的一系列能力,比如长上下文突破、芯片利用效率提升等,说不定真会成为新一轮大模型价格战的「新开端」。
写在最后:AI 江湖的风云变幻(Written at the End: 717919.com/dy24xszz-3817.html The Changing Landscape of the AI Jianghu)
DeepSeek 无疑是今年 AI 行业最大的「搅局者」,连业界领头羊 OpenAI 都被迫做出诸多回应。多家媒体爆料,OpenAI 近期计划推出「酝酿已久」的 GPT - 4.5。当然,其他大模型厂商的追赶甚至超越,也在倒逼着 DeepSeek 加快脚步。路透社最新报道称,新一代 R2 推理模型真的要来了,DeepSeek 原计划 5 月推出,现在已经在考虑提前发布。