4LhCatvRE04 finance.huanqiu.comarticleDeepSeek再爆猛料!推理系统成本利润率惊人,影响多大?/e3pmh1hmp/e3pn61chp【环球网财经综合报道】在众人以为DeepSeek的开源周内容已经发布完毕之际,3月1日,DeepSeek突然宣布了“One More Thing”,揭秘了其V3/R1推理系统,并首次公开了大规模部署的成本和收益数据,这一举动在行业内引起了巨大震动。据DeepSeek官方发布的《DeepSeek-V3/R1推理系统概览》文章显示,假定GPU租赁成本为2美元/小时,DeepSeek V3/R1推理系统的日均成本为87072美元。然而,若按照DeepSeek R1的定价计算,其单日理论收入竟高达562027美元,成本利润率因此达到了惊人的545%。 DeepSeek-V3/R1推理系统的优化目标在于实现更大的吞吐和更低的延迟。为实现这一目标,DeepSeek采用了大规模跨节点专家并行(Expert Parallelism / EP)策略。EP策略不仅使得batch size大幅增加,提高了GPU矩阵乘法的效率,从而提升了吞吐;同时,EP还使得专家分散在不同的GPU上,降低了每个GPU的访存需求,进而减少了延迟。然而,EP策略也增加了系统的复杂性。为了优化吞吐,DeepSeek需要设计合适的计算流程,使得传输和计算可以同步进行。此外,由于EP涉及多个节点,因此天然需要数据并行(Data Parallelism / DP),而不同DP之间则需要进行负载均衡。针对这些挑战,DeepSeek介绍了如何使用EP增大batch size、如何隐藏传输耗时、以及如何进行负载均衡等关键技术。其中,DeepSeek通过双batch重叠来掩盖通信开销,提高整体吞吐;同时,针对不同并行模式设计了动态负载均衡器,确保各GPU的计算量、通信量及KVCache占用均衡,避免了资源浪费。值得注意的是,DeepSeek在实际部署中还实现了一套昼夜资源调配机制。在白天服务负荷高时,使用所有节点部署推理服务;而在晚上服务负荷低时,则减少推理节点,转而用于研究和训练。这一机制进一步提高了硬件利用率,降低了成本。中信证券认为,Deepseek在模型训练成本降低方面的最佳实践,料将刺激科技巨头采用更为经济的方式加速前沿模型的探索和研究,同时将使得大量AI应用得以解锁和落地。算法训练带来的规模报酬递增效应以及单位算力成本降低对应的杰文斯悖论等,均意味着中短期维度科技巨头继续在AI算力领域进行持续、规模投入仍将是高确定性事件。DeepSeek此次披露的数据不仅验证了其技术路线的商业可行性,更为行业树立了高效盈利的标杆。有分析指出,DeepSeek的开源策略与成本控制能力正在打破AI领域的资源垄断。其模型训练成本仅为同类产品的1%-5%,而推理定价则具有明显优势。这一低成本策略加速了市场渗透,使得更多企业能够负担得起AI大模型的应用。然而,就在DeepSeek披露大规模部署成本和收益之后,潞晨科技突然宣布将在一周后停止提供DeepSeek API服务。潞晨科技CEO尤洋此前曾指出,尽管DeepSeek-R1的定价看似低廉,但实际上接入方企业可能面临巨额亏损。这一消息无疑给DeepSeek的未来增添了一丝不确定性。尽管如此,DeepSeek此次“透明化”披露仍然向行业传递了明确信号:AI大模型的盈利闭环已从理想照进现实。这一标志着AI技术从实验室迈向产业化的关键转折,预计将刺激更多科技巨头采用更为经济的方式加速前沿模型的探索和研究。同时,随着AI应用的不断解锁和落地,AI算力领域的持续、规模投入也将成为高确定性事件。未来,DeepSeek能否继续保持其在AI大模型领域的领先地位?其开源策略和低成本模式能否持续引领行业发展?这些问题仍有待时间给出答案。但无论如何,DeepSeek此次的揭秘无疑为AI行业带来了新的思考和启示。(陈十一)1740889196985环球网版权作品,未经书面授权,严禁转载或镜像,违者将被追究法律责任。责编:陈超环球网174088919698511[]//img.huanqiucdn.cn/dp/api/files/imageDir/71439531061fc9e8d9237ccd1288bb38.png{"email":"chenchao@huanqiu.com","name":"陈超"}
【环球网财经综合报道】在众人以为DeepSeek的开源周内容已经发布完毕之际,3月1日,DeepSeek突然宣布了“One More Thing”,揭秘了其V3/R1推理系统,并首次公开了大规模部署的成本和收益数据,这一举动在行业内引起了巨大震动。据DeepSeek官方发布的《DeepSeek-V3/R1推理系统概览》文章显示,假定GPU租赁成本为2美元/小时,DeepSeek V3/R1推理系统的日均成本为87072美元。然而,若按照DeepSeek R1的定价计算,其单日理论收入竟高达562027美元,成本利润率因此达到了惊人的545%。 DeepSeek-V3/R1推理系统的优化目标在于实现更大的吞吐和更低的延迟。为实现这一目标,DeepSeek采用了大规模跨节点专家并行(Expert Parallelism / EP)策略。EP策略不仅使得batch size大幅增加,提高了GPU矩阵乘法的效率,从而提升了吞吐;同时,EP还使得专家分散在不同的GPU上,降低了每个GPU的访存需求,进而减少了延迟。然而,EP策略也增加了系统的复杂性。为了优化吞吐,DeepSeek需要设计合适的计算流程,使得传输和计算可以同步进行。此外,由于EP涉及多个节点,因此天然需要数据并行(Data Parallelism / DP),而不同DP之间则需要进行负载均衡。针对这些挑战,DeepSeek介绍了如何使用EP增大batch size、如何隐藏传输耗时、以及如何进行负载均衡等关键技术。其中,DeepSeek通过双batch重叠来掩盖通信开销,提高整体吞吐;同时,针对不同并行模式设计了动态负载均衡器,确保各GPU的计算量、通信量及KVCache占用均衡,避免了资源浪费。值得注意的是,DeepSeek在实际部署中还实现了一套昼夜资源调配机制。在白天服务负荷高时,使用所有节点部署推理服务;而在晚上服务负荷低时,则减少推理节点,转而用于研究和训练。这一机制进一步提高了硬件利用率,降低了成本。中信证券认为,Deepseek在模型训练成本降低方面的最佳实践,料将刺激科技巨头采用更为经济的方式加速前沿模型的探索和研究,同时将使得大量AI应用得以解锁和落地。算法训练带来的规模报酬递增效应以及单位算力成本降低对应的杰文斯悖论等,均意味着中短期维度科技巨头继续在AI算力领域进行持续、规模投入仍将是高确定性事件。DeepSeek此次披露的数据不仅验证了其技术路线的商业可行性,更为行业树立了高效盈利的标杆。有分析指出,DeepSeek的开源策略与成本控制能力正在打破AI领域的资源垄断。其模型训练成本仅为同类产品的1%-5%,而推理定价则具有明显优势。这一低成本策略加速了市场渗透,使得更多企业能够负担得起AI大模型的应用。然而,就在DeepSeek披露大规模部署成本和收益之后,潞晨科技突然宣布将在一周后停止提供DeepSeek API服务。潞晨科技CEO尤洋此前曾指出,尽管DeepSeek-R1的定价看似低廉,但实际上接入方企业可能面临巨额亏损。这一消息无疑给DeepSeek的未来增添了一丝不确定性。尽管如此,DeepSeek此次“透明化”披露仍然向行业传递了明确信号:AI大模型的盈利闭环已从理想照进现实。这一标志着AI技术从实验室迈向产业化的关键转折,预计将刺激更多科技巨头采用更为经济的方式加速前沿模型的探索和研究。同时,随着AI应用的不断解锁和落地,AI算力领域的持续、规模投入也将成为高确定性事件。未来,DeepSeek能否继续保持其在AI大模型领域的领先地位?其开源策略和低成本模式能否持续引领行业发展?这些问题仍有待时间给出答案。但无论如何,DeepSeek此次的揭秘无疑为AI行业带来了新的思考和启示。(陈十一)