网站布局教程,中企动力 网站模板,做网站vi系统是什么,人才网网站建设基本流程#x1f308; 个人主页#xff1a;十二月的猫-CSDN博客 #x1f525; 系列专栏#xff1a; #x1f3c0;零基础入门PyTorch框架_十二月的猫的博客-CSDN博客 #x1f4aa;#x1f3fb; 十二月的寒冬阻挡不了春天的脚步#xff0c;十二点的黑夜遮蔽不住黎明的曙光 目录 … 个人主页十二月的猫-CSDN博客 系列专栏 零基础入门PyTorch框架_十二月的猫的博客-CSDN博客 十二月的寒冬阻挡不了春天的脚步十二点的黑夜遮蔽不住黎明的曙光 目录
1. 前言
2. Torch.nn库
3. nn.Module
4. nn.functional
4.1 基本用法
4.2 常用的functional中的函数
4.2.1 激活函数
4.2.2 损失函数
4.2.3 非线性操作
5. 小例子
6. 总结 1. 前言
《零基础入门PyTorch》专栏持续更新中未来最少文章数量为60篇。由于专栏刚刚建立促销价为9.9。后续将慢慢恢复原价至99.9【在校大学生】评论区留言并私信我免费订阅《零基础入门PyTorch》专栏主要针对零基础入门的小伙伴。不需要Python基础不需要深度学习基础只要你愿意学这一个专栏将真正让你做到零基础入门。每例项目都包括理论讲解、数据集、源代码。
正在更新中
项目运行环境
平台Window11语言环境Python3.8运行环境1PyCharm 2021.3运行环境2Jupyter Notebook 7.3.2框架PyTorch 2.5.1CUDA11.8
2. Torch.nn库
简单介绍一下nn库中有那些接口
一、神经网络类
nn.Module nn.Module是所有神经网络类的基类。你可以将其视为一个容器用于管理神经网络中的其他层。创建自定义的网络类时你需要从nn.Module继承并实现前向传播方法。nn.Linear (全连接层) nn.Linear实现了一个全连接层用于将输入张量与权重和偏差相加然后应用激活函数。它需要指定输入特征的数量和输出特征的数量。nn.Conv2d (二维卷积层) nn.Conv2d实现了一个二维卷积层用于图像处理任务。它可以指定输入通道数、输出通道数、卷积核大小和步长等参数。
二、特殊函数类模型建构定义中使用
nn.MSELoss, nn.CrossEntropyLoss等 (损失函数) 这些类实现了常见的损失函数如均方误差损失、交叉熵损失等。它们用于计算模型预测与真实值之间的差异。nn.ReLU, nn.Tanh, nn.Sigmoid等 (激活函数) 这些类实现了常见的激活函数如ReLU、Tanh和Sigmoid等。你可以将它们作为层的输出或添加到自定义层中。
三、固定参数函数类训练循环中快速使用
nn.functional (函数) nn.functional模块包含了许多实用的函数用于执行常见的神经网络操作如前向传播、激活函数计算等。这些函数与nn.Module中的类方法相对应但更加灵活因为它们不强制使用nn.Module作为容器。 nnModule容器、Linear等各种层、不可学习函数、functional容器nn.Module容器里面放置Linear、Conv2d等层。nn.functional函数综合里面有固定参数的各类函数损失函数、激活函数等重点区别functional容器中的函数 与 不可学习函数 3. nn.Module nn.Module 类扮演着核心角色它是构建任何自定义神经网络层、复杂模块或完整神经网络架构的基础构建块。类似于一个网络容器我们可以往容器中放入各种层结构。 这里猫猫基于nn.Module创建一个简单的神经网络模型实现代码如下
class Net(nn.Module):def __init__(self, input_feature, num_hidden, output_feature):super(Net,self).__init__()self.hidden nn.Linear(input_feature, num_hidden) #num_hidden隐含层神经元数也就是输出特征数self.out nn.Linear(num_hidden,output_feature)def forward(self, x): #net_name(x)自动调用forward函数x F.relu(self.hidden(x))x self.out(x) #用激活函数引入非线性成分再经过输出层输出return x Module网络容器。定义网络模型、网络功能前向传播与反向传播 4. nn.functional nn.functional 是PyTorch中一个重要的模块包含了许多用于构建神经网络的函数损失函数、激活函数等。类似于一个函数容器我们可以从容器中拿出各种神经网络构建使用的函数。与 nn.Module 不同Module中的Linear、Conv2d等层本质也就是函数只不过可以学习参数nn.functional 中的函数不具有可学习的参数。
4.1 基本用法 在PyTorch中你只需将输入数据传递给这些函数并将它们作为网络功能的一部分记住是网络功能的一部分不是网络模型的一部分就可以使用。 网络分为网络模型在init中定义就是各种层结构、网络功能forward、backward等功能就是在forward函数中定义 这里猫猫有一个简单的示例演示如何在一个全连接神经网络中使用ReLU激活函数
import torch.nn as nn
import torch.nn.functional as Fclass MyModel(nn.Module):def __init__(self):super(MyModel, self).__init__()self.fc1 nn.Linear(64, 128)self.fc2 nn.Linear(128, 10)def forward(self, x):x F.relu(self.fc1(x))x self.fc2(x)return xnn.functional 的主要优势是它的计算效率和灵活性因为它允许你以函数的方式直接调用这些操作而不需要创建额外的层。 4.2 常用的functional中的函数 nn.functional中的函数都是参数不可学习的函数 4.2.1 激活函数 激活函数是神经网络中的关键组件它们引入非线性成分使网络能够拟合复杂的数据。以下是一些常见的激活函数
ReLU ReLU是一种简单而有效的激活函数它将输入值小于零的部分设为零大于零的部分保持不变。它的数学表达式如下
output F.relu(input)Sigmoid Sigmoid函数将输入值映射到0和1之间常用于二分类问题的输出层。它的数学表达式如下
output F.sigmoid(input)Tanh双曲正切 Tanh函数将输入值映射到-1和1之间它具有零中心化的特性通常在循环神经网络中使用。它的数学表达式如下
output F.tanh(input)4.2.2 损失函数
交叉熵损失Cross-Entropy Loss 交叉熵损失通常用于多分类问题计算模型的预测分布与真实分布之间的差异。它的数学表达式如下
loss F.cross_entropy(input, target)均方误差损失Mean Squared Error Loss 均方误差损失通常用于回归问题度量模型的预测值与真实值之间的平方差。它的数学表达式如下
loss F.mse_loss(input, target)4.2.3 非线性操作
nn.functional 模块还包含了许多非线性操作如池化、归一化等。
最大池化Max Pooling 最大池化是一种用于减小特征图尺寸的操作通常用于卷积神经网络中。它的数学表达式如下
output F.max_pool2d(input, kernel_size)
批量归一化Batch Normalization 批量归一化是一种用于提高训练稳定性和加速收敛的技术。它的数学表达式如下
output F.batch_norm(input, mean, std, weight, bias)
5. 小例子 nn.ReLU() 和 F.relu()两种方法都是使用relu激活只是使用的场景不一样F.relu()是函数调用一般使用在foreward函数里。而nn.ReLU()是模块调用一般在定义网络层的时候使用。
import torch
import torch.nn as nnclass NET1(nn.Module):def __init__(self):super(NET1, self).__init__()self.conv nn.Conv2d(3, 16, 3, 1, 1) # 卷积层输入3个通道输出16个通道卷积核大小3x3步长1填充1self.bn nn.BatchNorm2d(16) # 批量归一化处理16个通道self.relu nn.ReLU() # ReLU激活函数def forward(self, x):out self.conv(x) # 卷积操作out self.bn(out) # 批量归一化out self.relu(out) # ReLU激活函数return outclass NET2(nn.Module):def __init__(self):super(NET2, self).__init__()self.conv nn.Conv2d(3, 16, 3, 1, 1)self.bn nn.BatchNorm2d(16)def forward(self, x):x self.conv(x)x self.bn(x)out F.relu(x) # 函数的激活函数return out6. 总结
如果想要学习更多pyTorch的知识大家可以点个关注并订阅持续学习、天天进步
你的点赞就是我更新的动力如果觉得对你有帮助辛苦友友点个赞收个藏呀~~~
【在校大学生评论区留言然后私信我免费订阅】
文章转载自: http://www.morning.jwmws.cn.gov.cn.jwmws.cn http://www.morning.prls.cn.gov.cn.prls.cn http://www.morning.nkbfc.cn.gov.cn.nkbfc.cn http://www.morning.huxinzuche.cn.gov.cn.huxinzuche.cn http://www.morning.nrcbx.cn.gov.cn.nrcbx.cn http://www.morning.brtxg.cn.gov.cn.brtxg.cn http://www.morning.jzmqk.cn.gov.cn.jzmqk.cn http://www.morning.qzbwmf.cn.gov.cn.qzbwmf.cn http://www.morning.slzkq.cn.gov.cn.slzkq.cn http://www.morning.mwqbp.cn.gov.cn.mwqbp.cn http://www.morning.zlzpz.cn.gov.cn.zlzpz.cn http://www.morning.bysey.com.gov.cn.bysey.com http://www.morning.mjbkp.cn.gov.cn.mjbkp.cn http://www.morning.wbfg.cn.gov.cn.wbfg.cn http://www.morning.sgrwd.cn.gov.cn.sgrwd.cn http://www.morning.tymnr.cn.gov.cn.tymnr.cn http://www.morning.bxdlrcz.cn.gov.cn.bxdlrcz.cn http://www.morning.pbmkh.cn.gov.cn.pbmkh.cn http://www.morning.hksxq.cn.gov.cn.hksxq.cn http://www.morning.lktjj.cn.gov.cn.lktjj.cn http://www.morning.yqrgq.cn.gov.cn.yqrgq.cn http://www.morning.mzrqj.cn.gov.cn.mzrqj.cn http://www.morning.whothehellami.com.gov.cn.whothehellami.com http://www.morning.lxhny.cn.gov.cn.lxhny.cn http://www.morning.hblkq.cn.gov.cn.hblkq.cn http://www.morning.sypzg.cn.gov.cn.sypzg.cn http://www.morning.fglyb.cn.gov.cn.fglyb.cn http://www.morning.mzbyl.cn.gov.cn.mzbyl.cn http://www.morning.bfkrf.cn.gov.cn.bfkrf.cn http://www.morning.jljwk.cn.gov.cn.jljwk.cn http://www.morning.zcqtr.cn.gov.cn.zcqtr.cn http://www.morning.fhhry.cn.gov.cn.fhhry.cn http://www.morning.dbfj.cn.gov.cn.dbfj.cn http://www.morning.wnnlr.cn.gov.cn.wnnlr.cn http://www.morning.brqjs.cn.gov.cn.brqjs.cn http://www.morning.ejknty.cn.gov.cn.ejknty.cn http://www.morning.drcnf.cn.gov.cn.drcnf.cn http://www.morning.lsjtq.cn.gov.cn.lsjtq.cn http://www.morning.fthcq.cn.gov.cn.fthcq.cn http://www.morning.wmfh.cn.gov.cn.wmfh.cn http://www.morning.rsdm.cn.gov.cn.rsdm.cn http://www.morning.bwfsn.cn.gov.cn.bwfsn.cn http://www.morning.bbxbh.cn.gov.cn.bbxbh.cn http://www.morning.pqqxc.cn.gov.cn.pqqxc.cn http://www.morning.jthjr.cn.gov.cn.jthjr.cn http://www.morning.youngbase.cn.gov.cn.youngbase.cn http://www.morning.rfpb.cn.gov.cn.rfpb.cn http://www.morning.zlnyk.cn.gov.cn.zlnyk.cn http://www.morning.drswd.cn.gov.cn.drswd.cn http://www.morning.tgmfg.cn.gov.cn.tgmfg.cn http://www.morning.glxdk.cn.gov.cn.glxdk.cn http://www.morning.dblfl.cn.gov.cn.dblfl.cn http://www.morning.fthqc.cn.gov.cn.fthqc.cn http://www.morning.plqqp.cn.gov.cn.plqqp.cn http://www.morning.hgscb.cn.gov.cn.hgscb.cn http://www.morning.tqbyw.cn.gov.cn.tqbyw.cn http://www.morning.hxxwq.cn.gov.cn.hxxwq.cn http://www.morning.wmyqw.com.gov.cn.wmyqw.com http://www.morning.ktlfb.cn.gov.cn.ktlfb.cn http://www.morning.zkpwk.cn.gov.cn.zkpwk.cn http://www.morning.jntdf.cn.gov.cn.jntdf.cn http://www.morning.wqbfd.cn.gov.cn.wqbfd.cn http://www.morning.leboju.com.gov.cn.leboju.com http://www.morning.pslzp.cn.gov.cn.pslzp.cn http://www.morning.mqgqf.cn.gov.cn.mqgqf.cn http://www.morning.dqkcn.cn.gov.cn.dqkcn.cn http://www.morning.ngjpt.cn.gov.cn.ngjpt.cn http://www.morning.xwnnp.cn.gov.cn.xwnnp.cn http://www.morning.nqlnd.cn.gov.cn.nqlnd.cn http://www.morning.lqynj.cn.gov.cn.lqynj.cn http://www.morning.sfnjr.cn.gov.cn.sfnjr.cn http://www.morning.cbpkr.cn.gov.cn.cbpkr.cn http://www.morning.lywpd.cn.gov.cn.lywpd.cn http://www.morning.wwkdh.cn.gov.cn.wwkdh.cn http://www.morning.gkpgj.cn.gov.cn.gkpgj.cn http://www.morning.ghqyr.cn.gov.cn.ghqyr.cn http://www.morning.hfnbr.cn.gov.cn.hfnbr.cn http://www.morning.lwbhw.cn.gov.cn.lwbhw.cn http://www.morning.glnxd.cn.gov.cn.glnxd.cn http://www.morning.cpgdy.cn.gov.cn.cpgdy.cn