当前位置: 首页 > news >正文

南宁网站建设公司seo优化网站建设责任分工

南宁网站建设公司seo优化,网站建设责任分工,wordpress+瀑布流加载,四川建设人才网网站相关博客 【深度学习】【分布式训练】Collective通信操作及Pytorch示例 【自然语言处理】【大模型】大语言模型BLOOM推理工具测试 【自然语言处理】【大模型】GLM-130B#xff1a;一个开源双语预训练语言模型 【自然语言处理】【大模型】用于大型Transformer的8-bit矩阵乘法介… 相关博客 【深度学习】【分布式训练】Collective通信操作及Pytorch示例 【自然语言处理】【大模型】大语言模型BLOOM推理工具测试 【自然语言处理】【大模型】GLM-130B一个开源双语预训练语言模型 【自然语言处理】【大模型】用于大型Transformer的8-bit矩阵乘法介绍 【自然语言处理】【大模型】BLOOM一个176B参数且可开放获取的多语言模型 Collective通信操作及Pytorch示例​ 大模型时代单机已经无法完成先进模型的训练和推理分布式训练和推理将会是必然的选择。各类分布式训练和推断工具都会使用到Collective通信。网络上大多数的教程仅简单介绍这些操作的原理没有代码示例来辅助理解。本文会介绍各类Collective通信操作并展示pytorch中如何使用。 一、Collective通信操作 1. AllReduce ​ 将各个显卡的张量进行聚合(sum、min、max)后再将结果写回至各个显卡。 2. Broadcast ​ 将张量从某张卡广播至所有卡。 3. Reduce ​ 执行同AllReduce相同的操作但结果仅写入具有的某个显卡。 4. AllGather ​ 每个显卡上有一个大小为N的张量共有k个显卡。经过AllGather后将所有显卡上的张量合并为一个N×kN\times kN×k的张量然后将结果分配至所有显卡上。 5. ReduceScatter ​ 执行Reduce相同的操作但是结果会被分散至不同的显卡。 二、Pytorch示例 ​ pytorch的分布式包torch.distributed能够方便的实现跨进程和跨机器集群的并行计算。本文代码运行在单机双卡服务器上并基于下面的模板来执行不同的分布式操作。 import os import torch import torch.distributed as dist import torch.multiprocessing as mpdef init_process(rank, size, fn, backendnccl):为每个进程初始化分布式环境保证相互之间可以通信并调用函数fn。os.environ[MASTER_ADDR] 127.0.0.1os.environ[MASTER_PORT] 29500dist.init_process_group(backend, rankrank, world_sizesize)fn(rank, size)def run(world_size, func):启动world_size个进程并执行函数func。processes []mp.set_start_method(spawn)for rank in range(world_size):p mp.Process(targetinit_process, args(rank, world_size, func))p.start()processes.append(p)for p in processes:p.join()if __name__ __main__:run(2, func) # 这里的func随后会被替换为不同的分布式示例函数pass​ 先对上面的模板做一些简单的介绍。 函数run会根据传入的参数world_size生成对应数量的进程。每个进程都会调用init_process来初始化分布式环境并调用传入的分布式示例函数。torch.distributed.init_process_group()该方法负责各进程之间的初始协调保证各进程都会与master进行握手。该方法在调用完成之前会一直阻塞并且后续的所有操作都必须在该操作之后。调用该方法时需要初始化下面的4个环境变量 MASTER_PORTrank 0进程所在机器上的空闲端口MASTER_ADDRrank 0进程所在机器上的IP地址WORLD_SIZE进程总数RANK每个进程的RANK所以每个进程知道其是否是master 1. 点对点通信 ​ 在介绍其他collective通信之前先看一个简单的点对点通信实现。 def p2p_block_func(rank, size):将rank src上的tensor发送至rank dst(阻塞)。src 0dst 1group dist.new_group(list(range(size)))# 对于rank src该tensor用于发送# 对于rank dst该tensor用于接收tensor torch.zeros(1).to(torch.device(cuda, rank))if rank src:tensor 1# 发送tensor([1.])# group指定了该操作所见进程的范围默认情况下是整个worlddist.send(tensortensor, dst1, groupgroup)elif rank dst:# rank dst的tensor初始化为tensor([0.])但接收后为tensor([1.])dist.recv(tensortensor, src0, groupgroup)print(Rank , rank, has data , tensor)if __name__ __main__:run(2, p2p_block_func)​ p2p_block_func实现从rank 0发送一个tensor([1.0])至rank 1该操作在发送完成/接收完成之前都会阻塞。 ​ 下面是一个不阻塞的版本 def p2p_unblock_func(rank, size):将rank src上的tensor发送至rank dst(非阻塞)。src 0dst 1group dist.new_group(list(range(size)))tensor torch.zeros(1).to(torch.device(cuda, rank))if rank src:tensor 1# 非阻塞发送req dist.isend(tensortensor, dstdst, groupgroup)print(Rank 0 started sending)elif rank dst:# 非阻塞接收req dist.irecv(tensortensor, srcsrc, groupgroup)print(Rank 1 started receiving)req.wait()print(Rank , rank, has data , tensor)if __name__ __main__:run(2, p2p_unblock_func)​ p2p_unblock_func是非阻塞版本的点对点通信。使用非阻塞方法时因为不知道数据何时送达所以在req.wait()完成之前不要对发送/接收的tensor进行任何操作。 2. Broadcast def broadcast_func(rank, size):src 0group dist.new_group(list(range(size)))if rank src:# 对于rank src初始化tensor([1.])tensor torch.zeros(1).to(torch.device(cuda, rank)) 1else:# 对于非rank src初始化tensor([0.])tensor torch.zeros(1).to(torch.device(cuda, rank))# 对于rank srcbroadcast是发送否则则是接收dist.broadcast(tensortensor, src0, groupgroup)print(Rank , rank, has data , tensor)if __name__ __main__:run(2, broadcast_func)​ broadcast_func会将rank 0上的tensor([1.])广播至所有的rank上。 3. Reduce与Allreduce def reduce_func(rank, size):dst 1group dist.new_group(list(range(size)))tensor torch.ones(1).to(torch.device(cuda, rank))# 对于所有rank都会发送, 但仅有dst会接收求和的结果dist.reduce(tensor, dstdst, opdist.ReduceOp.SUM, groupgroup)print(Rank , rank, has data , tensor)if __name__ __main__:run(2, reduce_func)​ reduce_func会对group中所有rank的tensor进行聚合并将结果发送至rank dst。 def allreduce_func(rank, size):group dist.new_group(list(range(size)))tensor torch.ones(1).to(torch.device(cuda, rank))# tensor即用来发送也用来接收dist.all_reduce(tensor, opdist.ReduceOp.SUM, groupgroup)print(Rank , rank, has data , tensor)if __name__ __main__:run(2, allreduce_func)​ allreduce_func将group中所有rank的tensor进行聚合并将结果发送至group中的所有rank。 4. Gather与Allgather def gather_func(rank, size):dst 1group dist.new_group(list(range(size)))# 该tensor用于发送tensor torch.zeros(1).to(torch.device(cuda, rank)) rankgather_list []if rank dst:# gather_list中的tensor数量应该是size个用于接收其他rank发送来的tensorgather_list [torch.zeros(1).to(torch.device(cuda, dst)) for _ in range(size)]# 仅在rank dst上需要指定gather_listdist.gather(tensor, gather_listgather_list, dstdst, groupgroup)else:# 非rank dst相当于发送tensordist.gather(tensor, dstdst, groupgroup)print(Rank , rank, has data , gather_list)if __name__ __main__:run(2, gather_func)​ gather_func从group中所有rank上收集tensor并发送至rank dst。(相当于不进行聚合操作的reduce) def allgather_func(rank, size):group dist.new_group(list(range(size)))# 该tensor用于发送tensor torch.zeros(1).to(torch.device(cuda, rank)) rank# gether_list用于接收各个rank发送来的tensorgather_list [torch.zeros(1).to(torch.device(cuda, rank)) for _ in range(size)]dist.all_gather(gather_list, tensor, groupgroup)# 各个rank的gather_list均一致print(Rank , rank, has data , gather_list)if __name__ __main__:run(2, allgather_func)​ allgather_func从group中所有rank上收集tensor并将收集到的tensor发送至所有group中的rank。 5. Scatter与ReduceScatter def scatter_func(rank, size):src 0group dist.new_group(list(range(size)))# 各个rank用于接收的tensortensor torch.empty(1).to(torch.device(cuda, rank))if rank src:# 在rank src上将tensor_list中的tensor分发至不同的rank上# tensor_list[tensor([1.]), tensor([2.])]tensor_list [torch.tensor([i 1], dtypetorch.float32).to(torch.device(cuda, rank)) for i in range(size)]# 将tensor_list发送至各个rank# 接收属于rank src的那部分tensordist.scatter(tensor, scatter_listtensor_list, src0, groupgroup)else:# 接收属于对应rank的tensordist.scatter(tensor, scatter_list[], src0, groupgroup)# 每个rank都拥有tensor_list中的一部分tensorprint(Rank , rank, has data , tensor)if __name__ __main__:run(2, scatter_func)​ scatter_func会将rank src中的一组tensor逐个分发至其他rank上每个rank持有的tensor不同。 def reduce_scatter_func(rank, size):group dist.new_group(list(range(size)))# 用于接收的tensortensor torch.empty(1).to(torch.device(cuda, rank))# 用于发送的tensor列表# 对于每个rank有tensor_list[tensor([0.]), tensor([1.])]tensor_list [torch.Tensor([i]).to(torch.device(cuda, rank)) for i in range(size)]# step1. 经过reduce的操作会得到tensor列表[tensor([0.]), tensor([2.])]# step2. tensor列表[tensor([0.]), tensor([2.])]分发至各个rank# rank 0得到tensor([0.])rank 1得到tensor([2.])dist.reduce_scatter(tensor, tensor_list, opdist.ReduceOp.SUM, groupgroup)print(Rank , rank, has data , tensor)if __name__ __main__:run(2, reduce_scatter_func)参考资料 https://docs.nvidia.com/deeplearning/nccl/user-guide/docs/usage/collectives.html https://pytorch.org/tutorials/intermediate/dist_tuto.html#collective-communication https://pytorch.org/docs/stable/distributed.html#collective-functions
文章转载自:
http://www.morning.klyyd.cn.gov.cn.klyyd.cn
http://www.morning.rkck.cn.gov.cn.rkck.cn
http://www.morning.mpyry.cn.gov.cn.mpyry.cn
http://www.morning.srkzd.cn.gov.cn.srkzd.cn
http://www.morning.swkzr.cn.gov.cn.swkzr.cn
http://www.morning.ryrgx.cn.gov.cn.ryrgx.cn
http://www.morning.lqpzb.cn.gov.cn.lqpzb.cn
http://www.morning.drytb.cn.gov.cn.drytb.cn
http://www.morning.zylzk.cn.gov.cn.zylzk.cn
http://www.morning.jwtwf.cn.gov.cn.jwtwf.cn
http://www.morning.nrydm.cn.gov.cn.nrydm.cn
http://www.morning.stbfy.cn.gov.cn.stbfy.cn
http://www.morning.cnvlog.cn.gov.cn.cnvlog.cn
http://www.morning.kmlmf.cn.gov.cn.kmlmf.cn
http://www.morning.fpxyy.cn.gov.cn.fpxyy.cn
http://www.morning.owenzhi.com.gov.cn.owenzhi.com
http://www.morning.qdbcd.cn.gov.cn.qdbcd.cn
http://www.morning.hmwjk.cn.gov.cn.hmwjk.cn
http://www.morning.qcdhg.cn.gov.cn.qcdhg.cn
http://www.morning.krnzm.cn.gov.cn.krnzm.cn
http://www.morning.ytmx.cn.gov.cn.ytmx.cn
http://www.morning.tgbx.cn.gov.cn.tgbx.cn
http://www.morning.kxwsn.cn.gov.cn.kxwsn.cn
http://www.morning.sphft.cn.gov.cn.sphft.cn
http://www.morning.ktlfb.cn.gov.cn.ktlfb.cn
http://www.morning.wjndl.cn.gov.cn.wjndl.cn
http://www.morning.zplzj.cn.gov.cn.zplzj.cn
http://www.morning.znrlg.cn.gov.cn.znrlg.cn
http://www.morning.jmlgk.cn.gov.cn.jmlgk.cn
http://www.morning.hengqilan.cn.gov.cn.hengqilan.cn
http://www.morning.fhykt.cn.gov.cn.fhykt.cn
http://www.morning.hkswt.cn.gov.cn.hkswt.cn
http://www.morning.ckhpg.cn.gov.cn.ckhpg.cn
http://www.morning.qwbls.cn.gov.cn.qwbls.cn
http://www.morning.ryjqh.cn.gov.cn.ryjqh.cn
http://www.morning.pdynk.cn.gov.cn.pdynk.cn
http://www.morning.lrwsk.cn.gov.cn.lrwsk.cn
http://www.morning.mxhcf.cn.gov.cn.mxhcf.cn
http://www.morning.rwlns.cn.gov.cn.rwlns.cn
http://www.morning.tjndb.cn.gov.cn.tjndb.cn
http://www.morning.nkjnr.cn.gov.cn.nkjnr.cn
http://www.morning.nmbbt.cn.gov.cn.nmbbt.cn
http://www.morning.gyxwh.cn.gov.cn.gyxwh.cn
http://www.morning.nrddx.com.gov.cn.nrddx.com
http://www.morning.ykrkb.cn.gov.cn.ykrkb.cn
http://www.morning.pumali.com.gov.cn.pumali.com
http://www.morning.qkwxp.cn.gov.cn.qkwxp.cn
http://www.morning.nlglm.cn.gov.cn.nlglm.cn
http://www.morning.xcszl.cn.gov.cn.xcszl.cn
http://www.morning.qtwd.cn.gov.cn.qtwd.cn
http://www.morning.rhgtc.cn.gov.cn.rhgtc.cn
http://www.morning.wbxr.cn.gov.cn.wbxr.cn
http://www.morning.kgxyd.cn.gov.cn.kgxyd.cn
http://www.morning.trzzm.cn.gov.cn.trzzm.cn
http://www.morning.lmmkf.cn.gov.cn.lmmkf.cn
http://www.morning.rzdzb.cn.gov.cn.rzdzb.cn
http://www.morning.gwmjy.cn.gov.cn.gwmjy.cn
http://www.morning.tgcw.cn.gov.cn.tgcw.cn
http://www.morning.qsbcg.cn.gov.cn.qsbcg.cn
http://www.morning.whpsl.cn.gov.cn.whpsl.cn
http://www.morning.zdzgf.cn.gov.cn.zdzgf.cn
http://www.morning.hhxwr.cn.gov.cn.hhxwr.cn
http://www.morning.rytps.cn.gov.cn.rytps.cn
http://www.morning.dxhdn.cn.gov.cn.dxhdn.cn
http://www.morning.rbzht.cn.gov.cn.rbzht.cn
http://www.morning.frzdt.cn.gov.cn.frzdt.cn
http://www.morning.jcxqc.cn.gov.cn.jcxqc.cn
http://www.morning.zmtrk.cn.gov.cn.zmtrk.cn
http://www.morning.shangwenchao4.cn.gov.cn.shangwenchao4.cn
http://www.morning.ngcsh.cn.gov.cn.ngcsh.cn
http://www.morning.llfwg.cn.gov.cn.llfwg.cn
http://www.morning.ypqwm.cn.gov.cn.ypqwm.cn
http://www.morning.kqbjy.cn.gov.cn.kqbjy.cn
http://www.morning.rxdsq.cn.gov.cn.rxdsq.cn
http://www.morning.jjnry.cn.gov.cn.jjnry.cn
http://www.morning.kbynw.cn.gov.cn.kbynw.cn
http://www.morning.hgsylxs.com.gov.cn.hgsylxs.com
http://www.morning.rzdzb.cn.gov.cn.rzdzb.cn
http://www.morning.pfgln.cn.gov.cn.pfgln.cn
http://www.morning.rlbc.cn.gov.cn.rlbc.cn
http://www.tj-hxxt.cn/news/253719.html

相关文章:

  • 番禺网站建设平台互联网技术对人们工作生活的影响
  • 大型网站解决方案设计网络推广方案的参考文献
  • 长沙专门做网站建设的公司wordpress月会员邀请码
  • 手机网站快速排名wordpress远程图片下载插件
  • php网站开发专业网站关键字优化工具
  • 化工材料 技术支持 东莞网站建设网页美工设计招聘
  • 苏州做企业网站有哪些app官网入口
  • 建手机网站软件建设通属于官方网站
  • 找建设项目的网站网站推广经验杂谈
  • 网站建设济南云畅网络fc网页游戏排行榜
  • 专业网站建设官网赵县网站建设
  • 重庆忠县网站建设公司哪家好晋源网站建设
  • 东莞建网站哪家强免费发布招聘信息
  • 还有做网站的必要吗网站空间会过期吗
  • 网站建设优惠活动广州软件制作公司
  • 网站套餐可以分摊吗吗wordpress 3.0.1
  • pascal建设网站黔东南网站设计公司
  • 公司网站建设合同模板长沙做公司网站大概多少钱
  • php建站视频教程网站先做移动站在做pc站可行吗
  • 网站开发用的开源系统快速搭建外贸网站
  • 哈尔滨网站制作维护网站设计代码
  • 阜宁企业网站建设app类似wordpress
  • 关于农产品电子商务网站的建设招商网站建站
  • 常州新北区建设局网站天河做网站设计
  • 织梦手机端网站字体重叠php 网站下载器
  • 网站建设的组织保障搜索引擎优化的策略主要有
  • 创世网站系统开发案例
  • 茂港网站开发公司成都网络公司网站
  • vps没问题访问不了网站美度手表网站
  • 2014山东春季高考网站建设wordpress自动保存编辑器图片