当前位置: 首页 > news >正文

[分布式并行] 流水线并行 PP(NaivePP/GPipe/F-then-B/PipeDream/1F1B)

前三篇文章分别介绍了 EPDPTP

  • EP [论文品鉴] DeepSeek V3 最新论文 之 DeepEP
  • DP [分布式并行策略] 数据并行 DP/DDP/FSDP/ZeRO
  • TP [分布式并行策略] 张量并行 TP

接下来会尽量做到由浅入深的介绍 MP 中的 PP,既 流水线并行策略

Naive PP

首先 PP流水线并行,是将模型 按层 进行拆分,与 DP(切数据) 和 TP(层内切张量) 进行互补。

朴素 Naive的做法是:

  • 将模型按(layer)切分为多个阶段(stage),每个stage(可以包含多个layer)部署到不同设备
    在这里插入图片描述
  • 单个batch前向传播stage顺序执行,如下表所示,GPU0执行完本设备stage前向传播后,将中间变量激活值传给GPU1,GPU1再执行,直到GPU3完成整个batch前向传播
  • 计算得到loss后,立即开始反向传播,GPU3执行反向传播得到梯度后,GPU2再执行,直到GPU0完成整个batch反向传播
  • 所有设备都得到各自梯度后,再统一进行参数更新
timeline012345678
GPU3FWDBWDUPDATE
GPU2FWDBWDUPDATE
GPU1FWDBWDUPDATE
GPU0FWDBWDUPDATE

可以看到 Navie PP 有两个主要问题:

  1. 同一时刻,其实只有一个设备在进行计算(和单GPU没有任何区别),其余设备
    均处于空闲状态,如下图所示,有大量空闲状态,也就形成了气泡,资源利用率极低
    在这里插入图片描述

  2. 数据生命周期被拉长,导致显存占用率高,如下图所示,为了在反向传播过程中完成计算,不得不将激活值等数据进行缓存;例如对于GPU0,要等待几乎整轮前向+反向传播完成,才可以释放这部分显存
    在这里插入图片描述

GPipe

GPipe 论文:https://arxiv.org/abs/1811.06965

GPipe 针对上面 Naive PP 的主要问题分别提出了两个解决方案:

(1)针对气泡问题,也就是GPU计算空闲,提出了micro-batch方案,也就是把mini-batch拆分成更小的micro-batch

下面以拆成4份的micro-batch为例,当GPU0完成第一个微批次得到激活值之后,会同时做两件事:①首先会立即把激活值传递给GPU1,这样GPU1就可以立即开始进行前向传播 ②同时GPU0也会立即进行第二个微批次的计算;以此类推,这样极大的提高了设备的并行度(例如在时刻3时,4个设备都在计算),降低了设备空闲时间,减小了气泡(反向传播也是一样)

timeline01234567891011121314
GPU3F1F2F3F4B4B3B2B1UPDATE
GPU2F1F2F3F4B4B3B3B1UPDATE
GPU1F1F2F3F4B4B3B2B1UPDATE
GPU0F1F2F3F4B4B3B2B1UPDATE

相比于Naive PP气泡GPipe的气泡小了很多
在这里插入图片描述
(2)针对数据生命周期被拉长,导致显存占用率高的问题,提出了重计算方案,也就是把激活值丢掉,在需要用的时候重新计算(也就是在backward的时候,先计算一遍激活值)

PipeDream

PepeDream 论文:https://arxiv.org/pdf/1806.03377

虽然GPipe气泡问题进行了优化,但也只能说是在一定程度上减小了气泡,无法进一步减少甚至消除气泡,主要是受限于F-then-B(先forward然后再backward然后聚集梯度更新参数)这种架构。

现在看看 PipeDream 如何进一步解决 气泡 问题:

首先,如果把前向传播和反向传播想象轨道上的火车,那么不论Naive PP(一辆)还是GPipe(一批)其实都是先开过去再开回来(阶段分离);

PipeDream提出了另一种方式,也就是 1F1B,通过调整轨道上火车调度策略 让前向与反向传播的小火车,可以持续的相向而行(打破阶段分离);

下面是 PipeDream 论文中的原图,可以看到,1F1B 的核心思想就是 F后紧接着执行 B 然后紧接着执行 F 然后 B 也就是 1F1B1F1B1F...,尽最大可能的减少了 气泡

在这里插入图片描述
整个调度策略可以分为两个阶段:

  • startup 阶段:和 GPipemicro-batch 类似
  • steady 阶段:F后立即进行B,一段时间后就可以完全跑满GPU,几乎没有任何气泡

但是问题来了,steady 都乱成这样了,那什么时候聚集梯度、怎么更新参数呢?

PipeDream 设计了两个东西:weight stashvertical sync

先看一下 weight stash,对于每个GPU来说,它独立处理一个stage,但 1F1B 的困境在与,某个时刻不同GPU在同时处理不同 mini-batch前向反向传播

其中 反向传播 依赖 前向传播激活值;而 激活值 又依赖于 前向传播 时的 模型weight

但如果不管不顾更新参数的话,很可能出现 反向传播 时,其 模型参数 已经被更新过了,这样算出来的 梯度 就完全不对了,所以根本问题就是 权重 weight版本不一致

所以weight stash做的事情就是,在每个mini-batch开始前,对其分配一个version版本号,这样该mini-batch后续的所有操作,都建立在整个version上,同时对于stash 暂存 一份 这个版本的权重weight,当该mini-batch进行反向传播时,使用对应版本权重weight

所以,weight stash 实现了 前向/反向 传播过程中中的 一致性,可以比喻成 水平方向一致性

而另一个维度 垂直方向,也就是多GPU间参数更新一致性,就需要靠 vertical sync 确保 同一个 mini-batch 的数据,即使在不同设备上,也要使用 相同版本参数

其底层也通过 mini-batch 进入 stage-0 时的 版本号 实现的,该 版本号 会绑定到该 mini-batch整个生命周期

Megatron-LM

Megatron-LM 的论文:https://arxiv.org/pdf/2104.04473

PipeDream1FB 已经很牛了,但是大佬们依然要求不满足,Megatron-LM 又提出了更牛的 真·交错式 终极体 1F1B

主要解决了啥问题呢,如下图所示,虽然四个GPU实现了1F1B,单其实在某些时刻,特别是startup 阶段,依然存在着 等待依赖

相比于 PipeDream 将模型各层,连续的分给各个 stage,例如:stage1包括1/2/3/4层,stage2包括5/6/7/8层;

Megatron-LM采取交错式分层,例如:stage1包括1/2/7/8层,也就是 打破了分层的连续性

在这里插入图片描述

而带来的好处就是,正常情况下,7/8 需要在 GPU1 等待它的 5/6 算完后才能进行,但此时 GPU0 一直在空闲的,所以当 GPU1 执行完 5/6 后,由 GPU0 立即进行 7/8 的计算,这样就减少了2个GPU等待时间。

此外,还有很多 PP 策略,例如:1F1B-FlushDeepSeek开源周推出的DualPipeChimera 等等等等,有时间再研究吧,学不完根本学不完…

http://www.lqws.cn/news/564481.html

相关文章:

  • MCPA2APPT 智能化演示文稿系统:A2A、MCP、ADK 三大架构全流程自动化
  • 区块链技术: 稳定币USDC的工作原理
  • 【八股消消乐】消息队列优化—消息丢失
  • python pyecharts 数据分析及可视化(2)
  • 基于Pandas和FineBI的昆明职位数据分析与可视化实现(三)- 职位数据统计分析
  • MAC 地址在 TCP 网络中的全面解析:从基础概念到高级应用
  • 【Redis原理】Redis事务与线程模型
  • StarRocks 3.5 新特性解读:Snapshot 快照恢复、大导入性能全面升级、分区管理更智能
  • opensuse/debian grub启动界面太模糊?
  • Wpf布局之WrapPanel面板!
  • 3.1.1、CAN总线单个设备环回测试
  • Git常见使用
  • WPF学习笔记(11)数据模板DataTemplate与数据模板选择器DataTemplateSelector
  • Mybatis学习总结
  • 鸿蒙5:自定义构建函数
  • 力扣第84题-柱状图中最大的矩形
  • Leetcode 3600. Maximize Spanning Tree Stability with Upgrades
  • Docker安装的gitlab配置ssl证书
  • 协作机器人优化自动化工作流程,提升工作效率
  • vue3报错No known conditions for “./lib/locale/lang/zh-cn”
  • HTML响应式Web设计
  • 链表题解——环形链表 II【LeetCode】
  • RK3588集群服务器性能优化案例:电网巡检集群、云手机集群、工业质检集群
  • Qwen2.5-7B-Instruct模型推理速度与量化对比分析
  • 【数据集】中国2016-2022年 城市土地利用数据集 CULU
  • 4_Flink CEP
  • 现代 JavaScript (ES6+) 入门到实战(四):数组的革命 map/filter/reduce - 告别 for 循环
  • Vue3 根据路由配置实现动态菜单
  • git常见问题汇总-重复提交/删除已提交文件等问题
  • RabbitMQ 工作模式