NVIDIA Megatron 是一個(gè)基于 PyTorch 的框架,用于訓(xùn)練基于 Transformer 架構(gòu)的巨型語言模型。本系列文章將詳細(xì)介紹Megatron的設(shè)計(jì)和實(shí)踐,探索這一框架如何助力大模型的預(yù)訓(xùn)練計(jì)算。 上篇主要介紹了大模型訓(xùn)練的發(fā)展趨勢(shì)、NVIDIA Megatron的模型并行設(shè)計(jì),本篇將承接上篇的內(nèi)容,解析Megatron 在NVIDIA DGX SuperPOD 上的實(shí)踐。
優(yōu)化的分布式集群架構(gòu):NVIDIA DGX SuperPOD
有了高效的分布式訓(xùn)練框架,自然也需要優(yōu)化的分布式訓(xùn)練集群。
NVIDIA DGX SuperPOD 便是 NVIDIA 推出的一個(gè)分布式集群的參考架構(gòu),最新一代是基于NVIDIA DGX A100 和NVIDIA HDR 200Gb/s ConnectX-6 HCAs組建,旨在幫助AI 研究人員快速搭建一套強(qiáng)大、靈活、高效的系統(tǒng),以滿足工業(yè)界日益復(fù)雜、多變的模型對(duì)計(jì)算資源不同程度的需求。尤其對(duì)于超大語言模型預(yù)訓(xùn)練這一復(fù)雜場(chǎng)景,DGX SuperPOD 架構(gòu)尤為重要。
DGX SuperPOD 采用模塊化的設(shè)計(jì),支持不同規(guī)模大小的設(shè)計(jì)。一個(gè)標(biāo)準(zhǔn)的SuperPOD 由140 臺(tái)DGX A100和三層Infiniband 交換機(jī)通過胖樹結(jié)構(gòu)全互聯(lián)起來。每臺(tái)DGX A100 配有8個(gè)200Gb/s 的高速計(jì)算網(wǎng),并配有2個(gè)200Gb/s的高速存儲(chǔ)網(wǎng),采用計(jì)算和存儲(chǔ)網(wǎng)絡(luò)分離的方案。
多個(gè)POD之間可以通過核心層交換機(jī)直連起來,可以支持多達(dá)560 臺(tái)DGX A100的互聯(lián)規(guī)模。
更多關(guān)于NVIDIA DGX SuperPOD 架構(gòu)的詳細(xì)設(shè)計(jì),請(qǐng)參閱下列連接中的白皮書:https://images.nvidia.com/aem-dam/Solutions/Data-Center/gated-resources/nvidia-dgx-superpod-a100.pdf
NVIDIA Megatron 在 DGX SuperPOD 上的實(shí)踐
基于DGX SuperPOD 的Megatron實(shí)踐在不同大小的模型上,都表現(xiàn)出了很好的計(jì)算效率。
模型從1.7B 到1T ,訓(xùn)練規(guī)模從32 卡到3072 卡。
基于GPT-3 175B 模型的訓(xùn)練,采用如下的配置:
128 臺(tái) DGX A100,總共 1024張 A100
Tensor 并行度:8;Pipeline 并行度:16; 數(shù)據(jù)并行度:8
全局Batch size : 1536;Micro-batch size: 1
在如此大的訓(xùn)練規(guī)模下,GPU 仍可達(dá)到44% 左右的計(jì)算效率,在規(guī)模和效率上,都遠(yuǎn)遠(yuǎn)超過已有的公開結(jié)果。
詳細(xì)內(nèi)容請(qǐng)參考以下鏈接:
Megatron repro: https://github.com/nvidia/megatron-lm
GPT3-175B training scripts: https://github.com/NVIDIA/Megatron-LM/blob/main/examples/pretrain_gpt3_175B.sh
總結(jié)
1. 大模型是大勢(shì)所趨。
2. 大規(guī)模分布式訓(xùn)練是訓(xùn)練大模型的必須。
3. NVIDIA Megatron 是開源的、軟硬協(xié)同設(shè)計(jì)的訓(xùn)練框架,專為Transformer-based的超大語言模型設(shè)計(jì)。
4. NVIDIA DGX SuperPOD 是開放的集群參考設(shè)計(jì)架構(gòu),專為大規(guī)模分布式訓(xùn)練而準(zhǔn)備。
5. Megatron 優(yōu)化的Tensor模型并行:用于intra-transformer 層,可以高效地執(zhí)行在HGX based的系統(tǒng)上。
6. Megatron優(yōu)化的 Pipeline 模型并行:用于inter-transformer 層,可以有效地利用集群中多網(wǎng)卡的設(shè)計(jì)。
7. 數(shù)據(jù)并行的加持,可以擴(kuò)展到更大規(guī)模、訓(xùn)練更快。
8. GPT-3 175B 的大模型,在1024 張 A100上可達(dá)到44%左右的計(jì)算效率。
9. NVIDIA Megatron 的設(shè)計(jì)和實(shí)踐,已廣泛用于學(xué)術(shù)界和工業(yè)界。
編輯:jq
-
數(shù)據(jù)
+關(guān)注
關(guān)注
8文章
7157瀏覽量
89638 -
NVIDIA
+關(guān)注
關(guān)注
14文章
5078瀏覽量
103767 -
交換機(jī)
+關(guān)注
關(guān)注
21文章
2657瀏覽量
100195 -
分布式
+關(guān)注
關(guān)注
1文章
925瀏覽量
74618
原文標(biāo)題:NVIDIA Megatron:超大Transformer語言模型的分布式訓(xùn)練框架 (二)
文章出處:【微信號(hào):NVIDIA-Enterprise,微信公眾號(hào):NVIDIA英偉達(dá)企業(yè)解決方案】歡迎添加關(guān)注!文章轉(zhuǎn)載請(qǐng)注明出處。
發(fā)布評(píng)論請(qǐng)先 登錄
相關(guān)推薦
大模型訓(xùn)練框架(五)之Accelerate
大語言模型開發(fā)框架是什么
分布式通信的原理和實(shí)現(xiàn)高效分布式通信背后的技術(shù)NVLink的演進(jìn)
![<b class='flag-5'>分布式</b>通信的原理和實(shí)現(xiàn)高效<b class='flag-5'>分布式</b>通信背后的技術(shù)NVLink的演進(jìn)](https://file1.elecfans.com/web2/M00/0C/B2/wKgaomc6m2qAX-1eAAAF5ef6CJE040.png)
【《大語言模型應(yīng)用指南》閱讀體驗(yàn)】+ 基礎(chǔ)知識(shí)學(xué)習(xí)
大語言模型的預(yù)訓(xùn)練
Transformer語言模型簡(jiǎn)介與實(shí)現(xiàn)過程
使用PyTorch搭建Transformer模型
摩爾線程攜手憨猴集團(tuán),深化AI算力戰(zhàn)略合作,成功實(shí)現(xiàn)大模型分布式訓(xùn)練
大語言模型:原理與工程時(shí)間+小白初識(shí)大語言模型
【大語言模型:原理與工程實(shí)踐】大語言模型的預(yù)訓(xùn)練
【大語言模型:原理與工程實(shí)踐】大語言模型的基礎(chǔ)技術(shù)
【大語言模型:原理與工程實(shí)踐】揭開大語言模型的面紗
【大語言模型:原理與工程實(shí)踐】探索《大語言模型原理與工程實(shí)踐》
HarmonyOS實(shí)戰(zhàn)案例:【分布式賬本】
![HarmonyOS實(shí)戰(zhàn)案例:【<b class='flag-5'>分布式</b>賬本】](https://file1.elecfans.com/web2/M00/C8/24/wKgZomYY8OKANfjsAAMAVHBzWLM112.jpg)
評(píng)論