南宁网站建设公司seo优化,网站建设责任分工,wordpress+瀑布流加载,四川建设人才网网站相关博客 【深度学习】【分布式训练】Collective通信操作及Pytorch示例 【自然语言处理】【大模型】大语言模型BLOOM推理工具测试 【自然语言处理】【大模型】GLM-130B#xff1a;一个开源双语预训练语言模型 【自然语言处理】【大模型】用于大型Transformer的8-bit矩阵乘法介… 相关博客 【深度学习】【分布式训练】Collective通信操作及Pytorch示例 【自然语言处理】【大模型】大语言模型BLOOM推理工具测试 【自然语言处理】【大模型】GLM-130B一个开源双语预训练语言模型 【自然语言处理】【大模型】用于大型Transformer的8-bit矩阵乘法介绍 【自然语言处理】【大模型】BLOOM一个176B参数且可开放获取的多语言模型 Collective通信操作及Pytorch示例 大模型时代单机已经无法完成先进模型的训练和推理分布式训练和推理将会是必然的选择。各类分布式训练和推断工具都会使用到Collective通信。网络上大多数的教程仅简单介绍这些操作的原理没有代码示例来辅助理解。本文会介绍各类Collective通信操作并展示pytorch中如何使用。
一、Collective通信操作
1. AllReduce
将各个显卡的张量进行聚合(sum、min、max)后再将结果写回至各个显卡。 2. Broadcast
将张量从某张卡广播至所有卡。 3. Reduce
执行同AllReduce相同的操作但结果仅写入具有的某个显卡。 4. AllGather
每个显卡上有一个大小为N的张量共有k个显卡。经过AllGather后将所有显卡上的张量合并为一个N×kN\times kN×k的张量然后将结果分配至所有显卡上。 5. ReduceScatter
执行Reduce相同的操作但是结果会被分散至不同的显卡。 二、Pytorch示例
pytorch的分布式包torch.distributed能够方便的实现跨进程和跨机器集群的并行计算。本文代码运行在单机双卡服务器上并基于下面的模板来执行不同的分布式操作。
import os
import torch
import torch.distributed as dist
import torch.multiprocessing as mpdef init_process(rank, size, fn, backendnccl):为每个进程初始化分布式环境保证相互之间可以通信并调用函数fn。os.environ[MASTER_ADDR] 127.0.0.1os.environ[MASTER_PORT] 29500dist.init_process_group(backend, rankrank, world_sizesize)fn(rank, size)def run(world_size, func):启动world_size个进程并执行函数func。processes []mp.set_start_method(spawn)for rank in range(world_size):p mp.Process(targetinit_process, args(rank, world_size, func))p.start()processes.append(p)for p in processes:p.join()if __name__ __main__:run(2, func) # 这里的func随后会被替换为不同的分布式示例函数pass 先对上面的模板做一些简单的介绍。
函数run会根据传入的参数world_size生成对应数量的进程。每个进程都会调用init_process来初始化分布式环境并调用传入的分布式示例函数。torch.distributed.init_process_group()该方法负责各进程之间的初始协调保证各进程都会与master进行握手。该方法在调用完成之前会一直阻塞并且后续的所有操作都必须在该操作之后。调用该方法时需要初始化下面的4个环境变量 MASTER_PORTrank 0进程所在机器上的空闲端口MASTER_ADDRrank 0进程所在机器上的IP地址WORLD_SIZE进程总数RANK每个进程的RANK所以每个进程知道其是否是master
1. 点对点通信
在介绍其他collective通信之前先看一个简单的点对点通信实现。
def p2p_block_func(rank, size):将rank src上的tensor发送至rank dst(阻塞)。src 0dst 1group dist.new_group(list(range(size)))# 对于rank src该tensor用于发送# 对于rank dst该tensor用于接收tensor torch.zeros(1).to(torch.device(cuda, rank))if rank src:tensor 1# 发送tensor([1.])# group指定了该操作所见进程的范围默认情况下是整个worlddist.send(tensortensor, dst1, groupgroup)elif rank dst:# rank dst的tensor初始化为tensor([0.])但接收后为tensor([1.])dist.recv(tensortensor, src0, groupgroup)print(Rank , rank, has data , tensor)if __name__ __main__:run(2, p2p_block_func) p2p_block_func实现从rank 0发送一个tensor([1.0])至rank 1该操作在发送完成/接收完成之前都会阻塞。
下面是一个不阻塞的版本
def p2p_unblock_func(rank, size):将rank src上的tensor发送至rank dst(非阻塞)。src 0dst 1group dist.new_group(list(range(size)))tensor torch.zeros(1).to(torch.device(cuda, rank))if rank src:tensor 1# 非阻塞发送req dist.isend(tensortensor, dstdst, groupgroup)print(Rank 0 started sending)elif rank dst:# 非阻塞接收req dist.irecv(tensortensor, srcsrc, groupgroup)print(Rank 1 started receiving)req.wait()print(Rank , rank, has data , tensor)if __name__ __main__:run(2, p2p_unblock_func) p2p_unblock_func是非阻塞版本的点对点通信。使用非阻塞方法时因为不知道数据何时送达所以在req.wait()完成之前不要对发送/接收的tensor进行任何操作。
2. Broadcast
def broadcast_func(rank, size):src 0group dist.new_group(list(range(size)))if rank src:# 对于rank src初始化tensor([1.])tensor torch.zeros(1).to(torch.device(cuda, rank)) 1else:# 对于非rank src初始化tensor([0.])tensor torch.zeros(1).to(torch.device(cuda, rank))# 对于rank srcbroadcast是发送否则则是接收dist.broadcast(tensortensor, src0, groupgroup)print(Rank , rank, has data , tensor)if __name__ __main__:run(2, broadcast_func) broadcast_func会将rank 0上的tensor([1.])广播至所有的rank上。
3. Reduce与Allreduce
def reduce_func(rank, size):dst 1group dist.new_group(list(range(size)))tensor torch.ones(1).to(torch.device(cuda, rank))# 对于所有rank都会发送, 但仅有dst会接收求和的结果dist.reduce(tensor, dstdst, opdist.ReduceOp.SUM, groupgroup)print(Rank , rank, has data , tensor)if __name__ __main__:run(2, reduce_func) reduce_func会对group中所有rank的tensor进行聚合并将结果发送至rank dst。
def allreduce_func(rank, size):group dist.new_group(list(range(size)))tensor torch.ones(1).to(torch.device(cuda, rank))# tensor即用来发送也用来接收dist.all_reduce(tensor, opdist.ReduceOp.SUM, groupgroup)print(Rank , rank, has data , tensor)if __name__ __main__:run(2, allreduce_func) allreduce_func将group中所有rank的tensor进行聚合并将结果发送至group中的所有rank。
4. Gather与Allgather
def gather_func(rank, size):dst 1group dist.new_group(list(range(size)))# 该tensor用于发送tensor torch.zeros(1).to(torch.device(cuda, rank)) rankgather_list []if rank dst:# gather_list中的tensor数量应该是size个用于接收其他rank发送来的tensorgather_list [torch.zeros(1).to(torch.device(cuda, dst)) for _ in range(size)]# 仅在rank dst上需要指定gather_listdist.gather(tensor, gather_listgather_list, dstdst, groupgroup)else:# 非rank dst相当于发送tensordist.gather(tensor, dstdst, groupgroup)print(Rank , rank, has data , gather_list)if __name__ __main__:run(2, gather_func) gather_func从group中所有rank上收集tensor并发送至rank dst。(相当于不进行聚合操作的reduce)
def allgather_func(rank, size):group dist.new_group(list(range(size)))# 该tensor用于发送tensor torch.zeros(1).to(torch.device(cuda, rank)) rank# gether_list用于接收各个rank发送来的tensorgather_list [torch.zeros(1).to(torch.device(cuda, rank)) for _ in range(size)]dist.all_gather(gather_list, tensor, groupgroup)# 各个rank的gather_list均一致print(Rank , rank, has data , gather_list)if __name__ __main__:run(2, allgather_func) allgather_func从group中所有rank上收集tensor并将收集到的tensor发送至所有group中的rank。
5. Scatter与ReduceScatter
def scatter_func(rank, size):src 0group dist.new_group(list(range(size)))# 各个rank用于接收的tensortensor torch.empty(1).to(torch.device(cuda, rank))if rank src:# 在rank src上将tensor_list中的tensor分发至不同的rank上# tensor_list[tensor([1.]), tensor([2.])]tensor_list [torch.tensor([i 1], dtypetorch.float32).to(torch.device(cuda, rank)) for i in range(size)]# 将tensor_list发送至各个rank# 接收属于rank src的那部分tensordist.scatter(tensor, scatter_listtensor_list, src0, groupgroup)else:# 接收属于对应rank的tensordist.scatter(tensor, scatter_list[], src0, groupgroup)# 每个rank都拥有tensor_list中的一部分tensorprint(Rank , rank, has data , tensor)if __name__ __main__:run(2, scatter_func) scatter_func会将rank src中的一组tensor逐个分发至其他rank上每个rank持有的tensor不同。
def reduce_scatter_func(rank, size):group dist.new_group(list(range(size)))# 用于接收的tensortensor torch.empty(1).to(torch.device(cuda, rank))# 用于发送的tensor列表# 对于每个rank有tensor_list[tensor([0.]), tensor([1.])]tensor_list [torch.Tensor([i]).to(torch.device(cuda, rank)) for i in range(size)]# step1. 经过reduce的操作会得到tensor列表[tensor([0.]), tensor([2.])]# step2. tensor列表[tensor([0.]), tensor([2.])]分发至各个rank# rank 0得到tensor([0.])rank 1得到tensor([2.])dist.reduce_scatter(tensor, tensor_list, opdist.ReduceOp.SUM, groupgroup)print(Rank , rank, has data , tensor)if __name__ __main__:run(2, reduce_scatter_func)参考资料
https://docs.nvidia.com/deeplearning/nccl/user-guide/docs/usage/collectives.html
https://pytorch.org/tutorials/intermediate/dist_tuto.html#collective-communication
https://pytorch.org/docs/stable/distributed.html#collective-functions 文章转载自: http://www.morning.klyyd.cn.gov.cn.klyyd.cn http://www.morning.rkck.cn.gov.cn.rkck.cn http://www.morning.mpyry.cn.gov.cn.mpyry.cn http://www.morning.srkzd.cn.gov.cn.srkzd.cn http://www.morning.swkzr.cn.gov.cn.swkzr.cn http://www.morning.ryrgx.cn.gov.cn.ryrgx.cn http://www.morning.lqpzb.cn.gov.cn.lqpzb.cn http://www.morning.drytb.cn.gov.cn.drytb.cn http://www.morning.zylzk.cn.gov.cn.zylzk.cn http://www.morning.jwtwf.cn.gov.cn.jwtwf.cn http://www.morning.nrydm.cn.gov.cn.nrydm.cn http://www.morning.stbfy.cn.gov.cn.stbfy.cn http://www.morning.cnvlog.cn.gov.cn.cnvlog.cn http://www.morning.kmlmf.cn.gov.cn.kmlmf.cn http://www.morning.fpxyy.cn.gov.cn.fpxyy.cn http://www.morning.owenzhi.com.gov.cn.owenzhi.com http://www.morning.qdbcd.cn.gov.cn.qdbcd.cn http://www.morning.hmwjk.cn.gov.cn.hmwjk.cn http://www.morning.qcdhg.cn.gov.cn.qcdhg.cn http://www.morning.krnzm.cn.gov.cn.krnzm.cn http://www.morning.ytmx.cn.gov.cn.ytmx.cn http://www.morning.tgbx.cn.gov.cn.tgbx.cn http://www.morning.kxwsn.cn.gov.cn.kxwsn.cn http://www.morning.sphft.cn.gov.cn.sphft.cn http://www.morning.ktlfb.cn.gov.cn.ktlfb.cn http://www.morning.wjndl.cn.gov.cn.wjndl.cn http://www.morning.zplzj.cn.gov.cn.zplzj.cn http://www.morning.znrlg.cn.gov.cn.znrlg.cn http://www.morning.jmlgk.cn.gov.cn.jmlgk.cn http://www.morning.hengqilan.cn.gov.cn.hengqilan.cn http://www.morning.fhykt.cn.gov.cn.fhykt.cn http://www.morning.hkswt.cn.gov.cn.hkswt.cn http://www.morning.ckhpg.cn.gov.cn.ckhpg.cn http://www.morning.qwbls.cn.gov.cn.qwbls.cn http://www.morning.ryjqh.cn.gov.cn.ryjqh.cn http://www.morning.pdynk.cn.gov.cn.pdynk.cn http://www.morning.lrwsk.cn.gov.cn.lrwsk.cn http://www.morning.mxhcf.cn.gov.cn.mxhcf.cn http://www.morning.rwlns.cn.gov.cn.rwlns.cn http://www.morning.tjndb.cn.gov.cn.tjndb.cn http://www.morning.nkjnr.cn.gov.cn.nkjnr.cn http://www.morning.nmbbt.cn.gov.cn.nmbbt.cn http://www.morning.gyxwh.cn.gov.cn.gyxwh.cn http://www.morning.nrddx.com.gov.cn.nrddx.com http://www.morning.ykrkb.cn.gov.cn.ykrkb.cn http://www.morning.pumali.com.gov.cn.pumali.com http://www.morning.qkwxp.cn.gov.cn.qkwxp.cn http://www.morning.nlglm.cn.gov.cn.nlglm.cn http://www.morning.xcszl.cn.gov.cn.xcszl.cn http://www.morning.qtwd.cn.gov.cn.qtwd.cn http://www.morning.rhgtc.cn.gov.cn.rhgtc.cn http://www.morning.wbxr.cn.gov.cn.wbxr.cn http://www.morning.kgxyd.cn.gov.cn.kgxyd.cn http://www.morning.trzzm.cn.gov.cn.trzzm.cn http://www.morning.lmmkf.cn.gov.cn.lmmkf.cn http://www.morning.rzdzb.cn.gov.cn.rzdzb.cn http://www.morning.gwmjy.cn.gov.cn.gwmjy.cn http://www.morning.tgcw.cn.gov.cn.tgcw.cn http://www.morning.qsbcg.cn.gov.cn.qsbcg.cn http://www.morning.whpsl.cn.gov.cn.whpsl.cn http://www.morning.zdzgf.cn.gov.cn.zdzgf.cn http://www.morning.hhxwr.cn.gov.cn.hhxwr.cn http://www.morning.rytps.cn.gov.cn.rytps.cn http://www.morning.dxhdn.cn.gov.cn.dxhdn.cn http://www.morning.rbzht.cn.gov.cn.rbzht.cn http://www.morning.frzdt.cn.gov.cn.frzdt.cn http://www.morning.jcxqc.cn.gov.cn.jcxqc.cn http://www.morning.zmtrk.cn.gov.cn.zmtrk.cn http://www.morning.shangwenchao4.cn.gov.cn.shangwenchao4.cn http://www.morning.ngcsh.cn.gov.cn.ngcsh.cn http://www.morning.llfwg.cn.gov.cn.llfwg.cn http://www.morning.ypqwm.cn.gov.cn.ypqwm.cn http://www.morning.kqbjy.cn.gov.cn.kqbjy.cn http://www.morning.rxdsq.cn.gov.cn.rxdsq.cn http://www.morning.jjnry.cn.gov.cn.jjnry.cn http://www.morning.kbynw.cn.gov.cn.kbynw.cn http://www.morning.hgsylxs.com.gov.cn.hgsylxs.com http://www.morning.rzdzb.cn.gov.cn.rzdzb.cn http://www.morning.pfgln.cn.gov.cn.pfgln.cn http://www.morning.rlbc.cn.gov.cn.rlbc.cn