
3月3日,国泰君安发表研究报告称:DeepSeek连续开源的FlashMLA和DeepEP技术显著提升了现有GPU利用效率,降低了AI应用开发和部署成本。技术开源将使提供GPU云服务的厂商将直接受益,其服务器利用率和单位算力产出有望提升;专注于AI应用开发的公司也将受益于开发成本降低和应用场景拓展;同时,国产大模型厂商有机会借鉴这些优化思路,加速自身技术迭代,缩小与国际领先水平的差距。
FlashMLA和DeepEP展现了对硬件资源的极致利用。FlashMLA针对Hopper架构深度优化,在H800SXM5实现3000GB/s内存带宽和580TFLOPS计算能力。DeepEP则是为混合专家模型(MoE)和专家并行(EP)设计的通信库,支持高吞吐量且低延迟的all-to-allGPU内核。软件优先的思路在高端AI芯片供应受限环境下尤为重要,通过算法和软件优化提升现有硬件效能,为国内AI基础设施建设提供了可行的替代路径,展示了资源约束下实现技术突破的可能性。
AI应用开发门槛降低,高效训练和推理能力不再是大型机构的专利。FlashMLA优化解码阶段内核,专门针对可变长度序列进行了优化,直指大模型处理长序列效率低下的核心痛点。DeepEP则提供了针对非对称域带宽转发的优化内核,并创新性地提出hook-based通信-计算重叠方法,不占用任何SM资源,让GPU在传输数据的同时能继续计算。这些技术使开发者能够在有限计算资源上构建更高效的AI系统,大幅降低了AI应用开发的技术和资源门槛。
开源策略体现了真正的技术共享精神,打破技术被少数机构垄断的局面。DeepSeek将新技术完全开源,源代码在GitHub上公开,任何开发者都可自由使用和改进,打破了前沿技术被大型科技公司垄断的局面,为整个行业注入新活力,也为行业建立了更健康的技术共享机制,促进知识自由流动和技术迭代,因此产业变革有望加速。
重要提示:本文仅代表作者个人观点,并不代表财中社立场。本文著作权归财中社所有。未经允许,任何单位或个人不得在任何公开传播平台上使用本文内容;经允许进行转载或引用时,请注明来源。联系请发邮件至czs@caizhongshe.cn。