第3章营销型企业网站建设,搜索引擎优化网站的网址,福州网站建设优化,做素材网站存储问题英伟达结构化剪枝工具Nvidia Apex Automatic Sparsity [ASP]#xff08;1#xff09;——使用方法
Apex是Nvdia维护的pytorch工具库#xff0c;包括混合精度训练和分布式训练#xff0c;Apex的目的是为了让用户能够更早的使用上这些“新鲜出炉”的训练工具。ASP#xff0…英伟达结构化剪枝工具Nvidia Apex Automatic Sparsity [ASP]1——使用方法
Apex是Nvdia维护的pytorch工具库包括混合精度训练和分布式训练Apex的目的是为了让用户能够更早的使用上这些“新鲜出炉”的训练工具。ASPAutomatic Sparsity是Nvidia Apex模块中用于模型稀疏剪枝的算法
项目地址NVIDIA/apex: A PyTorch Extension: Tools for easy mixed precision and distributed training in Pytorch (github.com)
本文主要介绍的是ASP中的一个用于模型剪枝的模块ASP(Automatic sparsity)该模块仅仅向python模型训练文件中添加两行代码来实现模型的24稀疏剪枝同时还可以通过开启通道置换算法将绝对值较大的参数进行保留以求对模型精度的影响最小化。
项目地址项目
论文链接论文
Installation
从github clone源码安装需要checkout到23.05的tag
git clone https://github.com/NVIDIA/apex.git
cd apex
git checkout 23.05
pip install -v --disable-pip-version-check --no-cache-dir --global-option--cpp_ext --global-option--cuda_ext --global-option--permutation_search ./Usage
使用ASP对模型进行稀疏化只需要两步
# 1. 导入sparsity模块
from apex.contrib.sparsity import ASP
# 2. 使用ASP来模型和优化器进行稀疏化
ASP.prune_trained_model(model, optimizer)prune_trained_model函数会计算出稀疏mask并将其施加在模型的权重上。
整体而言通常需要在对模型稀疏化后重新进行训练整个过程可以表示为
ASP.prune_trained_model(model, optimizer)x, y DataLoader(args)
for epoch in range(epochs):y_pred model(x)loss loss_function(y_pred, y)loss.backward()optimizer.step()torch.save(...)非标准用法
ASP还可以用来为模型生成稀疏的随机化参数从而进行更加复杂高级的实验如果在两个step之间重新计算权重的稀疏矩阵可以通过在训练的step之间调用ASP.recompute_sparse_masks函数来为模型重新生成稀疏mask。
Channel Permutation
该项目还可以通过开启通道置换算法来为结构化稀疏后的模型保留最大的精度值。
通道置换算法顾名思义就是通过沿着权重矩阵的通道维度进行置换并对其周围的模型层进行适当调整。
如果开启通道置换算法那么最终的模型精度与置换算法的质量之间存在很大关系置换的过程可以通过Apex CUDA拓展来进行加速否则时间会非常的久。
在Installation步骤中参数--global-option--permutation_search即是用于安装permutation search CUDA extension 。
如果不希望开启通道置换算法可以在ASP.init_model_for_pruning方法中将参数allow_permutation的值设置为False即可这一点在后续的源代码分析中也会提到。
需要注意的是当使用多个GPU时需要为所有的GPU设置相同的随机种子通过permutation_lib.py中的 set_identical_seed来进行设置。
import torch
import numpy
import randomtorch.manual_seed(identical_seed)
torch.cuda.manual_seed_all(identical_seed)
numpy.random.seed(identical_seed)
random.seed(identical_seed)
torch.backends.cudnn.deterministic True
torch.backends.cudnn.benchmark FalseTips
在使用ASP对一个新的未经过稀疏的推理模型启用结构化稀疏时需要同时调用init_model_for_pruning和compute_sparse_masks方法。init_model_for_pruning会为模型层添加新的mask buffer用于保存compute_sparse_masks生成的mask因此调用了compute_sparse_masks后的模型的state_dict会比之前多出一些数据这些数据均以_mma_mask结尾的名字进行命名。对于已经使用ASP enable了结构化稀疏的模型在保存后重新加载时需要先创建一个新的模型并调用init_model_for_pruning方法为模型添加mask buffer后再load模型的state_dict否则因为新模型的state_dict和之前保存的state_dict不同而报错。
Example:
写了一个简单的Conv-FC网络训练后使用ASP进行剪枝随后再次进行训练
import torch
import torch.nn as nn
import torch.optim as optim
import torchvision
import torchvision.transforms as transforms
from apex.contrib.sparsity import ASP# 定义卷积神经网络模型
class ConvNet(nn.Module):def __init__(self):super(ConvNet, self).__init__()self.conv1 nn.Conv2d(1, 16, 3, padding1)self.relu1 nn.ReLU()self.pool1 nn.MaxPool2d(2, 2)self.conv2 nn.Conv2d(16, 32, 3, padding1)self.relu2 nn.ReLU()self.pool2 nn.MaxPool2d(2, 2)self.fc1 nn.Linear(32 * 7 * 7, 128)self.relu3 nn.ReLU()self.fc2 nn.Linear(128, 10)self.sig nn.Sigmoid()def forward(self, x):x self.pool1(self.relu1(self.conv1(x)))x self.pool2(self.relu2(self.conv2(x)))x x.view(-1, 32 * 7 * 7)x self.relu3(self.fc1(x))x self.fc2(x)x self.sig(x)return xdef train_loop(model, optimizer, criterion):num_epochs 1for epoch in range(num_epochs):running_loss 0.0for i, data in enumerate(trainloader, 0):inputs, labels data[0].to(device), data[1].to(device)optimizer.zero_grad()outputs model(inputs)loss criterion(outputs, labels)loss.backward()optimizer.step()running_loss loss.item()if i % 100 99:print(fEpoch [{epoch1}/{num_epochs}], Batch [{i1}/{len(trainloader)}], Loss: {running_loss/100:.4f})running_loss 0.0def val(model):correct 0total 0model.eval()with torch.no_grad():for images, labels in testloader:images, labels images.to(device), labels.to(device)outputs model(images)_, predicted torch.max(outputs.data, 1)total labels.size(0)correct (predicted labels).sum().item()accuracy correct / total * 100print(Test Accuracy :{}%.format(accuracy))return accuracydef main():# 训练网络print(Begin to train the dense network!)train_loop(model, optimizer, criterion)print(Finish training the dense network!)accuracy_dense val(model)print(The accuracy of the trained dense network is : {}.format(accuracy_dense))torch.save(model.state_dict(), model_weights.pth)ASP.prune_trained_model(model, optimizer)accuracy_sparse val(model)print(The accuracy of the truned network is : {}.format(accuracy_sparse))print(Begin to train the sparse network!)train_loop(model, optimizer, criterion)print(Finish training the sparse network!)accuracy_sparse val(model)print(The accuracy of the trained sparse network is : {}.format(accuracy_sparse))torch.save(model.state_dict(), model_weights_sparse.pth)print(Training finished!)if __name__ __main__:transform transforms.Compose([transforms.ToTensor(),transforms.Normalize((0.5,), (0.5,))])trainset torchvision.datasets.MNIST(root./data, trainTrue, downloadTrue, transformtransform)trainloader torch.utils.data.DataLoader(trainset, batch_size64, shuffleTrue)testset torchvision.datasets.MNIST(root./data, trainFalse, downloadTrue, transformtransform)testloader torch.utils.data.DataLoader(testset, batch_size64, shuffleFalse)device torch.device(cuda if torch.cuda.is_available() else cpu)model ConvNet().to(device)print(original weights has been saved!)criterion nn.CrossEntropyLoss()optimizer optim.SGD(model.parameters(), lr0.001, momentum0.9)main()运行结果
root:/home/shanlin/cnn_demo# python train.py
Found permutation search CUDA kernels
[ASP][Info] permutation_search_kernels can be imported.
original weights has been saved!
Begin to train the dense network!
The accuracy of the trained dense network is : 94.77...The accuracy of the truned network is : 94.15...The accuracy of the trained sparse network is : 96.6
Training finished!
root:/home/shanlin/cnn_demo# 可以看出第一次训练后accuracy达到了94.77剪枝后下降到了94.15再次训练后重新上升到了96.6比第一次训练还高应该是因为模型是随便写的且数据集太简单的原因 文章转载自: http://www.morning.jfqpc.cn.gov.cn.jfqpc.cn http://www.morning.wxfjx.cn.gov.cn.wxfjx.cn http://www.morning.rqnhf.cn.gov.cn.rqnhf.cn http://www.morning.wttzp.cn.gov.cn.wttzp.cn http://www.morning.dnqliv.cn.gov.cn.dnqliv.cn http://www.morning.mmosan.com.gov.cn.mmosan.com http://www.morning.hngmg.cn.gov.cn.hngmg.cn http://www.morning.hnhsym.cn.gov.cn.hnhsym.cn http://www.morning.nzhzt.cn.gov.cn.nzhzt.cn http://www.morning.xwlhc.cn.gov.cn.xwlhc.cn http://www.morning.kwksj.cn.gov.cn.kwksj.cn http://www.morning.lnbyk.cn.gov.cn.lnbyk.cn http://www.morning.lekbiao.com.gov.cn.lekbiao.com http://www.morning.rqmr.cn.gov.cn.rqmr.cn http://www.morning.ygztf.cn.gov.cn.ygztf.cn http://www.morning.xrwsg.cn.gov.cn.xrwsg.cn http://www.morning.lkfsk.cn.gov.cn.lkfsk.cn http://www.morning.qlhkx.cn.gov.cn.qlhkx.cn http://www.morning.tdzxy.cn.gov.cn.tdzxy.cn http://www.morning.kqpxb.cn.gov.cn.kqpxb.cn http://www.morning.chmcq.cn.gov.cn.chmcq.cn http://www.morning.fcwxs.cn.gov.cn.fcwxs.cn http://www.morning.gzzxlp.com.gov.cn.gzzxlp.com http://www.morning.nggbf.cn.gov.cn.nggbf.cn http://www.morning.gjssk.cn.gov.cn.gjssk.cn http://www.morning.bqdgr.cn.gov.cn.bqdgr.cn http://www.morning.pzrnf.cn.gov.cn.pzrnf.cn http://www.morning.dbfj.cn.gov.cn.dbfj.cn http://www.morning.cwknc.cn.gov.cn.cwknc.cn http://www.morning.qfdyt.cn.gov.cn.qfdyt.cn http://www.morning.pmjw.cn.gov.cn.pmjw.cn http://www.morning.mhnr.cn.gov.cn.mhnr.cn http://www.morning.nclps.cn.gov.cn.nclps.cn http://www.morning.rkyw.cn.gov.cn.rkyw.cn http://www.morning.cjmmt.cn.gov.cn.cjmmt.cn http://www.morning.txqsm.cn.gov.cn.txqsm.cn http://www.morning.jqjnl.cn.gov.cn.jqjnl.cn http://www.morning.ywtbk.cn.gov.cn.ywtbk.cn http://www.morning.mmkrd.cn.gov.cn.mmkrd.cn http://www.morning.yfmwg.cn.gov.cn.yfmwg.cn http://www.morning.gcspr.cn.gov.cn.gcspr.cn http://www.morning.dnydy.cn.gov.cn.dnydy.cn http://www.morning.nqmhf.cn.gov.cn.nqmhf.cn http://www.morning.xfmzk.cn.gov.cn.xfmzk.cn http://www.morning.mdfxn.cn.gov.cn.mdfxn.cn http://www.morning.nkyc.cn.gov.cn.nkyc.cn http://www.morning.khyqt.cn.gov.cn.khyqt.cn http://www.morning.rbnj.cn.gov.cn.rbnj.cn http://www.morning.jwdys.cn.gov.cn.jwdys.cn http://www.morning.bkcnq.cn.gov.cn.bkcnq.cn http://www.morning.xbrxk.cn.gov.cn.xbrxk.cn http://www.morning.jkrrg.cn.gov.cn.jkrrg.cn http://www.morning.hwxxh.cn.gov.cn.hwxxh.cn http://www.morning.mcjp.cn.gov.cn.mcjp.cn http://www.morning.0dirty.cn.gov.cn.0dirty.cn http://www.morning.jnptt.cn.gov.cn.jnptt.cn http://www.morning.psxwc.cn.gov.cn.psxwc.cn http://www.morning.bwygy.cn.gov.cn.bwygy.cn http://www.morning.srnth.cn.gov.cn.srnth.cn http://www.morning.jbhhj.cn.gov.cn.jbhhj.cn http://www.morning.sxjmz.cn.gov.cn.sxjmz.cn http://www.morning.gmgyt.cn.gov.cn.gmgyt.cn http://www.morning.gbpanel.com.gov.cn.gbpanel.com http://www.morning.jfqqs.cn.gov.cn.jfqqs.cn http://www.morning.tgydf.cn.gov.cn.tgydf.cn http://www.morning.qhnmj.cn.gov.cn.qhnmj.cn http://www.morning.zsyrk.cn.gov.cn.zsyrk.cn http://www.morning.rqgq.cn.gov.cn.rqgq.cn http://www.morning.qdcpn.cn.gov.cn.qdcpn.cn http://www.morning.bmssj.cn.gov.cn.bmssj.cn http://www.morning.wwznd.cn.gov.cn.wwznd.cn http://www.morning.kjkml.cn.gov.cn.kjkml.cn http://www.morning.jrtjc.cn.gov.cn.jrtjc.cn http://www.morning.mumgou.com.gov.cn.mumgou.com http://www.morning.rhkgz.cn.gov.cn.rhkgz.cn http://www.morning.rzdpd.cn.gov.cn.rzdpd.cn http://www.morning.rzcmn.cn.gov.cn.rzcmn.cn http://www.morning.rzmsl.cn.gov.cn.rzmsl.cn http://www.morning.rnzgf.cn.gov.cn.rnzgf.cn http://www.morning.gczqt.cn.gov.cn.gczqt.cn