全球 AI 产业再次迎来地震级事件,英伟达、微软、亚马逊三大科技巨头在同一天宣布接入 DeepSeek-R1 模型。要知道这三家企业可不是随随便便就会同时对一个 AI 模型下场支持的,而这背后既有商业利益的权衡,也有 AI 产业正在发生的深层次变革。
在大模型领域市场上主流玩家大多选择了闭源、封闭生态的路线,例如 OpenAI 的 GPT 系列、Anthropic 的 Claude,而 DeepSeek 反其道而行选择了开源。
这就像是传统软件时代的 Windows 和 Linux 之争,GPT 是 Windows闭源生态封闭,但适配良好体验一致。而 DeepSeek 则更像 Linux,开源任何人都可以拿去部署、修改、优化。DeepSeek-R1 作为一个 67B 参数的开源模型,不仅性能强大而且让开发者可以直接调用和部署,而不用担心 API 价格暴涨、使用限制等问题。
换句话说DeepSeek 不只是一个模型,它是一种新的游戏规则。在 OpenAI 和 Anthropic 还在争论谁的模型更强时,DeepSeek 直接让所有云厂商、AI 开发者都能自己玩,你可以自己部署,自己优化,甚至自己调整底层代码。
这对微软、亚马逊、英伟达来说,简直就是天降福音。首先DeepSeek 解决了云厂商最头疼的一个问题,大模型绑架。过去OpenAI 的 GPT-4、Anthropic 的 Claude 这些大模型基本都牢牢绑定在微软 Azure、亚马逊 AWS 上。
这意味着想用 GPT-4 的公司只能通过微软的云服务购买 API 权限,而不是自己部署。长期下来微软和 AWS 这样的云服务提供商,实际上被 OpenAI 这些大模型厂商拿捏住了,利润分配上也要看大模型厂商的脸色。
但 DeepSeek 选择开源,云厂商可以直接把 DeepSeek-R1、V3 这样的模型部署到自家服务器上,让客户自由选择。这意味着微软、亚马逊不再受限于 OpenAI 或 Anthropic,而是可以自由定价甚至优化模型来吸引客户。
其次DeepSeek 让多模型供应成为可能。过去企业想要选择大模型,要么选 GPT-4,要么选 Claude,模型供应商是单一的,价格、性能都很难谈判。但 DeepSeek 的开放模式,让云厂商可以提供多个模型供用户选择。今天客户可以用 GPT-4,明天可以换 DeepSeek-R1,后天可能还会有更多开源或自研模型加入。
从商业角度看微软、AWS 当然更愿意让客户有选择,而不是被 OpenAI 绑死。如果说微软和亚马逊是希望摆脱 OpenAI 依赖,那英伟达的动机就更有意思了。
作为 AI 时代的 GPU 霸主,英伟达最重要的目标是让全球所有 AI 训练和推理任务,都运行在 英伟达 GPU上。DeepSeek 采用英伟达的 PTX进行深度优化,这意味着 DeepSeek 在英伟达 GPU 上的性能可以达到最大化。
而 DeepSeek 的开源模式,进一步巩固了英伟达的生态优势,越多公司采用 DeepSeek,就意味着越多公司需要英伟达 GPU。更重要的是DeepSeek 还展示了如何绕开 CUDA,直接用 PTX 进行优化,这让英伟达更容易适配自己的硬件,而不受特定软件框架的约束。
这背后的逻辑很简单,大模型就像操作系统而 GPU 就像硬件。微软当年靠 Windows 统一了 PC 生态,英伟达如今希望所有大模型都运行在它的 GPU 生态上。而 DeepSeek 开源后,吸引了越来越多的开发者,也让英伟达的 GPU 更具竞争力。
DeepSeek 被三大巨头接入,标志着 AI 产业正在发生一场重要的变革,去中心化与集中化的较量。这就像安卓和 iOS 的区别。iOS 生态封闭但体验稳定,苹果赚得盆满钵满。安卓则是开源的,每个厂商都可以基于它开发自己的系统,虽然生态碎片化但更具灵活性。
AI 行业正在走向两极化,未来可能会有一部分企业继续依赖 OpenAI 这样的大厂封闭模型,但也会有越来越多的企业,开始选择 DeepSeek 这样的开源方案,自己搭建 AI 体系。
微软、亚马逊、英伟达这次 同步上架 DeepSeek,就是对这个变革趋势的正式承认。它们不会再把鸡蛋放在一个篮子里,而是要确保无论未来 AI 产业走向集中化还是去中心化,它们都能占据有利位置。
最终这场变革的最大赢家是谁?可能不是某一家大模型公司,而是整个 AI 生态的参与者。当选择变多竞争加剧,价格下降创新加速,受益的将是所有 AI 开发者和企业用户。
上一篇:量子力学理论及其应用