在DeepSeek開源周的精彩延續(xù)中,摩爾線程于近日宣布了一項重大進展——成功集成并開源了針對DeepSeek通信庫DeepEP與并行算法DualPipe的支持。這一成果標志著摩爾線程在推動大模型訓練與推理效率方面邁出了堅實的一步,相關(guān)開源代碼倉庫MT-DeepEP與MT-DualPipe也隨之亮相。
DeepEP,這一專為混合專家(MoE)模型設(shè)計的開源通信庫,通過優(yōu)化通信信道的使用,顯著提升了大模型訓練的效率,特別是在集群訓練中展現(xiàn)出卓越性能。摩爾線程憑借MUSA Compute Capability 3.1全功能GPU的強大實力,成功適配了DeepEP,并引入了一系列創(chuàng)新特性,包括高效優(yōu)化的All-to-All通信機制、MTLink + GPU節(jié)點內(nèi)通信支持、高吞吐量與低延遲計算核心的靈活切換、原生FP8數(shù)據(jù)分發(fā)能力,以及GPU資源的靈活調(diào)度,實現(xiàn)了計算與通信的高效協(xié)同。
另一方面,DualPipe作為DeepSeek-V3的核心算法,通過實現(xiàn)前向與后向計算階段計算與通信的完全重疊,有效減少了“流水線氣泡”,即設(shè)備空閑等待時間,從而進一步提升了訓練效率。摩爾線程依托其深度學習框架Torch-MUSA(已開源)及MUSA軟件棧的全面兼容性,成功實現(xiàn)了對DualPipe算法的支持。目前,MT-DualPipe已無縫接入摩爾線程的MT-Megatron與MT-TransformerEngine框架(后者即將開源),能夠完整復現(xiàn)DeepSeek V3的訓練流程。
值得注意的是,MT-DualPipe與MT-Megatron的結(jié)合,不僅實現(xiàn)了DeepSeek V3模型中MLP-FFN與DW-DG的分離,進一步降低了氣泡占比,還優(yōu)化了通信效率。同時,MT-DualPipe與MT-TransformerEngine及MT-DeepEP的協(xié)同工作,借助MT-DeepEP的異步通信引擎,實現(xiàn)了更高效的通信掩蓋,有效降低了對計算資源的損耗。這一系列創(chuàng)新技術(shù)的融合,無疑為摩爾線程在大模型訓練與推理領(lǐng)域的發(fā)展注入了強勁動力。
對于有志于探索大模型訓練與推理技術(shù)的開發(fā)者而言,摩爾線程的開源成果無疑提供了一套強大的工具集。Torch-MUSA開源地址的公布,更是為開發(fā)者們打開了一扇通往高效深度學習實踐的大門。