3 月 1 日,在连续五天开源日之后,DeepSeek 又来了一个 "One More Thing",并扔下一枚 " 核弹 " ——在分享了其基础设施里极为关键的 EP(多专家并行)组件代码的同时,也首次公开了它的利润率。根据 DeepSeek 公开的信息计算,它理论上一天的总收入为 562027 美元,成本利润率高达 545%。
这是 DeepSeek 对它的 " 盈利能力 " 的最直接的一次回应。自从 DeepSeek R1 成了现象级的话题后,对它模型能力的质疑逐渐消失,但对它的高性价比和模型背后的成本,以及由此带来的 " 烧钱 " 问题,依然有不少质疑。有硅谷从业者称,这次公布的数据会再次让英伟达们彻夜难眠,让从业者开始新的反思。
而在国内 AI 领域,这次重要的开源带来的影响则以另一种更加剧烈的形式呈现了出来——它引发了一场两家中国 AI Infra 公司之间的 " 血案 "。
尤洋与袁进辉的争论
事件的两个主角,一方是尤洋及其创办的潞晨科技,另一方是袁进辉及其创立的硅基流动。
先是 DeepSeek 的这篇技术分享在知乎发布后,不少用户开始 @尤洋,让他点评。这是因为此前在 DeepSeek 被各家服务商争相部署的热潮里,他是最积极的反对声音之一。此前尤洋曾在社交平台上计算过部署 DeepSeek 的成本和收益,并得出结论,部署 DeepSeek 并提供服务的 AI Infra 公司,都是在亏钱,并且是 " 月亏四亿 "。
他提到:短期内,中国的 MaaS(模型即服务)模式可能是最差的商业模式,大厂相互卷低价和免费,满血版 DeepSeek R1 每百万 token(输出)只收 16 元。如果每日输出 1000 亿 token,基于 DeepSeek 的服务每月的机器成本是 4.5 亿元,亏损 4 亿元;用 AMD 芯片月收入 4500 万元,月机器成本 2.7 亿元,这意味着亏损也超过 2 亿元。
![]()
此次 DeepSeek 的开源周并非要回应某个具体质疑,但其公布的利润率之高,显然与这个计算完全相反。人们首先想到了尤洋。尤洋也在四个小时后发文回应,称 DeepSeek 官方这一计算方法不能用于 MaaS 盈亏评估。在论述中,他延续了 " 基于大模型的 Mass 服务不赚钱 " 的立场。
紧接着,他的潞晨科技宣布将在一周后停供 DeepSeek API。
![]()
而另一家 AI Infra 公司硅基流动的创始人袁进辉也在讨论中被很多人提到。在 DeepSeek 春节期间彻底出圈走红后,硅基流动是国内最早一批行动起来提供部署服务,承接住 DeepSeek 带来的需求的公司之一。而流量之大,让这家公司不仅正式出圈,也在过程中出现一些争议,包括它此前提供的推荐 " 反佣 " 式的优惠被快速薅羊毛,收费服务与免费服务的调整等。但本质上,袁进辉和硅基流动是相信快速跟进并提供 DeepSeek 的 MaaS 服务是此刻最正确的决策。
因此尤洋当初的批评也就指向了这家同行公司。彼时,袁进辉与尤洋就已经有过一轮 " 交锋 ",前者认为亏损 4 亿的计算方法有误,因为使用了错误的架构进行估计。而尤洋直接回应:" 弄 400 台机器,看看每日能否输出 1000 亿满血 DeepSeek R1 token,让我看看。"
而这次 DeepSeek 官方直接 " 让人看到 " 了这是可行的。袁进辉也在 DeepSeek 文章发布一小时后就火速评论道," 又颠覆了很多人的认知 ",他认为 " 很多供应商做不到这个水平 ","MaaS 能否成功,关键在于技术实力和用户基础。"
![]()
" 谁做不到,谁就是技不如人 " 的含义,尽在不言中。
而紧接着更戏剧化的隔空对决开始了。尤洋随后直接发了一篇直接批评硅基流动这家公司的文章。《坑人的硅基流动》(现已删除)一文将炮火从技术争论转向直接对对方的攻击。此时话题核心也从 DeepSeek 的利润,转向了两家公司之间的恩怨情仇。袁进辉也第一时间回应,一方面强调了硅基流动一系列动作背后的思路,另一方面直接抖出 " 潞晨代码抄袭 " 的旧案。但这两个显得都有些冲动的争论,后都已删除。
这些争论也在知乎等技术人员聚集的平台上引发了广泛的延展讨论,AI Infra 公司难得的自己变成了行业热议话题的主角。
到底谁算的对?
在这场争论中,到底如何计算,以及由不同计算方法而得出的 AI Infra 是否是巨亏的生意,是第一个核心议题。
在上周的连续五天,DeepSeek 刚刚发布了五项核心技术,涵盖计算优化、通信加速和存储架构等领域,几乎将自己的核心 AI Infra 技术全部公布开来,大幅提升了大模型训推硬件效率。而在 DeepSeek 的这篇《DeepSeek-V3/R1 推理系统概览》文章里,又进一步揭示了这些技术和部分是如何组装联系在一起的,相当于一个串联式的总结内容。据介绍,DeepSeek 使用了大规模跨节点专家并行(EP)的方法,并通过一系列技术策略,最大程度地优化了大模型推理系统,实现了惊人的性能和效率。
在文章的末尾,DeepSeek 以理论成本和利润计算作为句号,为这次以开源降本为核心目的的开源周,画下了一个完美的句号:假定 GPU 租赁成本为 2 美元 / 小时,总成本为 87072 美元 / 天;如果所有 tokens 全部按照 DeepSeek R1 的定价计算,理论上一天的总收入为 562027 美元 / 天,成本利润率为 545%。
其中,DeepSeek 的计算方式如下:
![]()
这里 DeepSeek 说的很清楚:
一成本只核算了等量租用 GPU 的费用,硬盘、存储、内存 CPU、人力运维都被没有被计算;
二收入却将 APP、网页、API 消耗的所有 Token(to C 和 to B 的总消耗量)加在了一起,均按照 API(to B)的价格计算,理论上一天成本利润率是 545%。
事实上,这的确是一个典型的量化风格的 " 最大可能性 " 推算,我们都知道,DeepSeek 的 APP 和网页是完全免费的,同时也并不保证流畅的用户体验。但是假如 DeepSeek 向用户按照 API 的价格收费,他的收入潜力可以达到上述金额。
也就是说,DeepSeek 计算的是" 我作为一个大模型厂商,我要是想,我可以赚到这么钱。"
所以,从这个角度来看,后来尤洋认为 " 这篇文章中的数据对计算 MaaS 成本没有任何参考价值 ",也不无道理。
毕竟 MaaS 是典型的企业服务,而企业的第一准求并不是性能而是稳定,而为了保证稳定性,云厂商的特点就是弹性伸缩、按需取用,所以必须准备足够大冗余。
DeepSeek 算的是一笔 " 过去的账 ",而 MaaS 平台如果要保证未来的稳定,尤洋也给出了预备比例,必须时时刻刻有 5 倍的机器专门为了满足客户的需求,这里我们需要考虑一旦部署的集群过大、使用效率、运费、用电的成本将指数级的上升。
![]()
尤其在如今各家 MaaS 平台用户的使用数量都稀少,没有办法做到削峰填谷资源高效利用的前提下,MaaS 厂商是很有可能亏本的。
总结一下,理论上(非常理想化,一人吃饱全家不饿的前提下),DeepSeek 的利润率可以达到,但考虑到实际的使用情况和大规模之后的优化成本,就很有可能亏钱了。
那么问题又来了,为什么部署 DeepSeek 亏本,而 DeepSeek 自己的推理却赚钱?
这个问题的答案藏在袁进辉的回复中:现在很多供应商做不到这个水平,主要是 V3/R1 架构和其他主流模型的差别太大了,MaaS 厂商需要按照 DeepSeek 的报告调,才能达到最好的效率。
![]()
这里需要补充一个前提是,过去的云厂商所建立的 IaaS 层是以 CPU 为核心的服务器集群,而高效的推理需要以 GPU 为核心完成并行计算。原本的 MaaS 用来生成问题不大,但 R1/V3 所采用的稀疏架构,对云来说是一个新的挑战,需要特调以进行适配。
MaaS 厂商们低估了 DeepSeek 模型架构的复杂性,用老一套来支持新模型,显然出现了性能不足的阵痛。而大模型一体机由于可以直接改造到硬件层,能够根据 DeepSeek 来专门定制型号,因此比 MaaS 提供的模型的性能和稳定性都更高,近期,硅基流动也与华为昆仑展开了合作,推出 DeepSeek 一体机,尝试解决推理性能不足的问题。
但 DeepSeek 不仅深谙自己的模型架构,做了软件算法层的调优,甚至将算力压缩到了优化芯片层,以 " 榨干 " 每一滴性能。
幸而在刚刚过去的开源周里,DeepSeek 开源了如何提高推理效率的 5 个模块,理论上只要跟着做,接下来其他 MaaS 厂商也能复现出来。
所以,AI Infra 公司们的未来在哪里?
这些争论背后,AI Infra 公司们再次被大众注意到。作为提供底层基础设施服务的公司,它们此前从来不是外界关注的焦点,但 DeepSeek 后,由于海量的需求无法由 DeepSeek 自己来满足,AI Infra 公司得到了一次直接面向海量广泛用户的机会,也因此出圈。
但随着 DeepSeek 在它自己 AI Infra 研究上的连续开源,很多人意识到,独立的 AI Infra 公司似乎再次遇到了严重的 " 存在感危机 "。
当 DeepSeek 不仅造出了最强的模型,同时也有最强的基础设施技术时,它似乎就变成了一个新的规则制定者:如果独立的公司想要提供部署 DeepSeek 模型的 AI Infra 生意,你就要使用 DeepSeek 的技术方案,不仅需要卷到极致,来快速复现 DeepSeek 做出的东西,还要在此基础上,去做些 DeepSeek 不做的诸如帮助开发者、帮助企业一对一的做落地服务等,进而来承载它服务不到,或目前没有作为重点去服务的用户们,从中尽可能的做大用户规模,来摊薄成本,让自己的利润率也无限接近 DeepSeek 官方算出来的那天花板的比例,这才有可能 " 存活 " 下去。
这种 "DeepSeek 吃肉,其他大家比赛谁能做喝到最多汤的那一个 " 的格局是否就是 AI Infra 的未来?这可能才是这场争论背后对行业真正重要的话题。
袁进辉也就此话题回复了硅星人,他认为这样的未来是否会发生,关键的一个变量就是开源。" 如果模型一家独大,而模型厂商又想吃这块蛋糕,的确其它各方就有压力,尤其如果模型是闭源的,就像 OpenAI 这样,就会更是如此。" 他说。
" 但当模型开源后,就要看外界有没有机会把 infra 或芯片的能力做的超过模型厂。"
而另一个变量则是这个剧烈变革的技术周期本身,它事实上让曾经分工比较明晰的不同技术角色的公司,竞争界限变得模糊。从 DeepSeek 的部署热潮里就能体会到——从 AI Infra 公司,到模型公司再到芯片公司,都参与了进来,提供着相似的服务,抢夺同样的市场。
" 今天模型,芯片,infra 其实都是半成品,彼此的关系是又合作又竞争,最终大家都要角逐类似 cloud 的位置。" 袁进辉对硅星人说。
在这场竞争里,AI Infra 不是最有优势的那一个,但另一方面,它事实上也拥有了一次从没有过的机会,从一个不太被注意的角落终于变成了焦点。在今天这个节点,是否压上 " 身家性命 " 和对自己技术工程能力的信心去赌一把未来 " 下一代云 " 的机会,会变成区分这些公司的关键决定。
硅星人也向尤洋提出关于 AI Infra 的未来走向的问题,他回复称,目前先不接受访谈了。
赞(37)