德保网站建设,国家官方网站,网络优化大师手机版,网站开发 维护岗位职责为什么去西藏的人都会感觉很治愈 拉萨的老中医是这么说的 缺氧脑子短路#xff0c;很多事想不起来#xff0c;就会感觉很幸福 一、卷积层 
解释#xff1a;卷积层通过卷积操作对输入数据进行处理。它使用一组可学习的滤波器#xff08;也称为卷积核或特征检测器#xff09… 为什么去西藏的人都会感觉很治愈 拉萨的老中医是这么说的 缺氧脑子短路很多事想不起来就会感觉很幸福 一、卷积层 
解释卷积层通过卷积操作对输入数据进行处理。它使用一组可学习的滤波器也称为卷积核或特征检测器将滤波器与输入数据进行逐元素的乘法累加操作从而生成输出特征图。这种滤波器的操作类似于图像处理中的卷积操作因此得名卷积层。 
主要作用 特征提取卷积层通过滤波器的卷积操作可以有效地提取输入数据中的局部特征。滤波器可以学习到不同的特征例如边缘、纹理、形状等这些特征对于图像识别和分类等任务非常重要。  参数共享卷积层的滤波器在整个输入数据上共享参数。这意味着在不同位置上使用相同的滤波器从而减少了需要学习的参数数量。这种参数共享的特性使得卷积层具有一定的平移不变性即对于输入数据的平移操作具有不变性。  减少参数数量相比全连接层每个神经元与上一层的所有神经元相连卷积层的参数数量较少。这是因为卷积层的滤波器在空间上共享参数并且每个滤波器只与输入数据的局部区域进行卷积操作。这种参数共享和局部连接的方式大大减少了需要学习的参数数量提高了模型的效率和泛化能力。  空间结构保持卷积层在进行卷积操作时保持了输入数据的空间结构。这意味着输出特征图的每个元素对应于输入数据的相应局部区域从而保留了输入数据的空间信息。这对于图像处理任务非常重要因为图像中的相邻像素之间存在一定的关联性。  
使用示例 代码示例 
import torch
import torch.nn.functional as F# 模拟图像
input  torch.tensor([[1, 2, 0, 3, 1],[0, 1, 2, 3, 1],[1, 2, 1, 0, 0],[5, 2, 3, 1, 1],[2, 1, 0, 1, 1]])
# 模拟卷积核
kernal  torch.tensor([[1, 2, 1],[0, 1, 0],[2, 1, 0]])# 参数结构转化
input  torch.reshape(input, (1, 1, 5, 5))
kernal  torch.reshape(kernal, (1, 1, 3, 3))print(input.shape)
print(kernal.shape)# 输入经过卷积操作
output  F.conv2d(input, kernal, stride2, padding1)
print(output) 
输出 
torch.Size([1, 1, 5, 5])
torch.Size([1, 1, 3, 3])
tensor([[[[ 1,  4,  8],[ 7, 16,  8],[14,  9,  4]]]]) 
图片数据集经过卷积层输出 
import torch
import torchvision
from torch.utils.data import DataLoader
from torch.nn import Conv2d
from torch import nn
from torch.utils.tensorboard import SummaryWriter# 加载数据集并加载到神经网络中
dataset  torchvision.datasets.CIFAR10(./cifar10, trainFalse, transformtorchvision.transforms.ToTensor(),downloadFalse)
dataloader  DataLoader(dataset, batch_size64)class Lh(nn.Module):def __init__(self):super(Lh, self).__init__()self.conv1  Conv2d(3, 6, 3, 1)def forward(self, x):x  self.conv1(x)return xlh  Lh()writer  SummaryWriter(logs)
step  0
for data in dataloader:imgs, targets  dataoutput  lh(imgs)writer.add_images(input, imgs, step)output  torch.reshape(output, (-1, 3, 30, 30))writer.add_images(output, output, step)step  1通过tensorboard展示 二、最大池化层 
解释它将输入数据划分为不重叠的矩形区域通常是2x2的窗口然后在每个区域中选择最大值作为输出。这样最大池化层通过取每个区域中的最大值来减少数据的维度。 
主要作用 特征减少最大池化层可以减少输入数据的空间尺寸从而降低了模型的计算复杂度。通过减少特征图的尺寸最大池化层能够在保留重要特征的同时减少需要处理的数据量提高模型的效率。  平移不变性最大池化层具有一定的平移不变性即对于输入数据的平移操作具有不变性。这是因为在最大池化操作中只选择每个区域中的最大值而不考虑其位置信息。这种平移不变性使得神经网络对于输入数据的位置变化具有一定的鲁棒性。  特征提取最大池化层可以帮助提取输入数据中的主要特征。通过选择每个区域中的最大值作为输出最大池化层能够保留输入数据中的重要特征并且对于噪声和不重要的细节具有一定的鲁棒性。  
最大池化层在神经网络中起到了减少数据维度、提取关键特征和增强模型的鲁棒性等作用简单来说就是把1080p的视频变成720p的。它通常与卷积层交替使用帮助神经网络有效地处理输入数据提高模型的性能和泛化能力。 使用示例 
import torch
from torch.nn import MaxPool2d
from torch import nn
import torchvision
from torch.utils.data import DataLoader
from torch.utils.tensorboard import SummaryWriterdataset  torchvision.datasets.CIFAR10(./cifar10, trainFalse, transformtorchvision.transforms.ToTensor(),downloadFalse)
dataloader  DataLoader(dataset, 64, False)input  torch.tensor([[1, 2, 0, 3, 1],[0, 1, 2, 3, 1],[1, 2, 1, 0, 0],[5, 2, 3, 1, 1],[2, 1, 0, 1, 1]], dtypetorch.float32)input  torch.reshape(input, (1, 1, 5, 5))class Lh(nn.Module):def __init__(self):super(Lh, self).__init__()self.maxpool  MaxPool2d(kernel_size3, ceil_modeTrue)def forward(self, x):x  self.maxpool(x)return xlh  Lh()writer  SummaryWriter(logs)
step  0
for data in dataloader:imgs, tagerts  datawriter.add_images(input, imgs, step)output  lh(imgs)writer.add_images(output, output, step)step  1writer.close()使用torchboard打卡 三、非线性激活函数 
解释神经网络的非线性激活函数是在神经网络的每个神经元上引入非线性变换的函数。它的作用是为神经网络引入非线性能力从而使网络能够学习和表示更加复杂的函数关系。 
主要作用 引入非线性线性变换的组合只能表示线性关系而神经网络的层级结构和参数学习能力使其具备了更强大的函数逼近能力。非线性激活函数的引入打破了线性关系的限制使得神经网络可以学习和表示非线性的函数关系从而更好地适应复杂的数据模式。  增强模型的表达能力非线性激活函数可以增强神经网络的表达能力使其能够学习和表示更加复杂的特征和模式。通过引入非线性变换激活函数可以对输入信号进行非线性映射从而提取和表示更多种类的特征帮助网络更好地理解输入数据。  解决分类问题的非线性可分性在处理分类问题时输入数据通常是非线性可分的。非线性激活函数可以帮助神经网络学习并表示类别之间的非线性边界从而提高分类准确性。例如常用的激活函数如ReLU、Sigmoid和Tanh等都是非线性的它们可以帮助神经网络学习并表示复杂的决策边界。  缓解梯度消失问题在深层神经网络中反向传播算法需要通过链式法则计算梯度并更新参数。线性激活函数如恒等映射会导致梯度的乘积变得非常小从而导致梯度消失问题。而非线性激活函数可以通过引入非线性变换使得梯度能够在网络中传播并保持较大的幅度从而缓解了梯度消失问题有助于更好地训练深层网络。  使用示例 
import torch
import torchvision.datasets
from torch import nn
from torch.nn import ReLU, Sigmoid
from torch.utils.data import DataLoader
from torch.utils.tensorboard import SummaryWriterinput  torch.tensor([[1, 2, 0, 3, 1],[0, 1, 2, 3, 1],[1, 2, 1, 0, 0],[5, 2, 3, 1, 1],[2, 1, 0, 1, 1]], dtypetorch.float32)input  torch.reshape(input, (-1, 1, 5, 5))dataset  torchvision.datasets.CIFAR10(./cifar10, False, transformtorchvision.transforms.ToTensor())
dataloader  DataLoader(dataset, 64)class Lh(nn.Module):def __init__(self):super(Lh, self).__init__()self.relu1  ReLU()self.sigmoid  Sigmoid()def forward(self, input):return self.sigmoid(input)lh  Lh()step  0
writer  SummaryWriter(logs)for data in dataloader:imgs, targets  datawriter.add_images(input, imgs, step)output  lh(imgs)writer.add_images(output, output, step)step  1writer.close()print(end)使用torchboard打开 四、其它层与神经网络模型 
查看pytorch的官方文档可以看到神经网络中不同层及其使用 你可以创建自己的神经网络然后自由搭配里面的网络层进行模型的训练。但是一般情况下我们不用手动去一层一层构建因为官网提供了很多已经搭配好的神经网络模型这些模型的训练效果都非常不错我们只需要选择构建好的模型使用即可。 
如 torchvision.models 五、神经网络搭建小实战 
crfar10 model structure 根据上图以input为 332 * 32为例可更据公式计算pandding 代码示例 
from torch import nn
from torch.nn import Conv2d, MaxPool2d, Flatten, Linear, Sequential
import torchclass Lh(nn.Module):def __init__(self):super(Lh, self).__init__()self.model1  Sequential(Conv2d(3, 32, 5, padding2),MaxPool2d(2),Conv2d(32, 32, 5, padding2),MaxPool2d(2),Conv2d(32, 64, 5, padding2),MaxPool2d(2),Flatten(),Linear(1024, 64),Linear(64, 10))def forward(self, x):x  self.model1(x)return xlh  Lh()
input  torch.ones((64,3,32,32))
print(input.shape)
output  lh(input)
print(output.shape)可以使用tensorboard绘制神经网络流程图 
writer  SummaryWriter(logs)
writer.add_graph(lh, input)
writer.close() 
六、损失函数 
损失函数用于衡量模型的预测输出与真实标签之间的差异并且在训练过程中用于优化模型的参数。 
常用的损失函数及其简单使用方法 
1. 均方误差损失Mean Squared Error, MSE 均方误差损失函数用于回归问题计算预测值与真实值之间的平均平方差。它可以通过torch.nn.MSELoss()来创建。 
import torch
import torch.nn as nnloss_fn  nn.MSELoss()predictions  torch.tensor([0.5, 0.8, 1.2])
targets  torch.tensor([1.0, 1.0, 1.0])loss  loss_fn(predictions, targets)
print(loss)2. 交叉熵损失Cross Entropy Loss 交叉熵损失函数常用于分类问题特别是多分类问题。它计算预测概率分布与真实标签之间的交叉熵。在PyTorch中可以使用torch.nn.CrossEntropyLoss()来创建交叉熵损失函数。 
import torch
import torch.nn as nnloss_fn  nn.CrossEntropyLoss()predictions  torch.tensor([[0.2, 0.3, 0.5], [0.8, 0.1, 0.1]])
targets  torch.tensor([2, 0])  # 真实标签loss  loss_fn(predictions, targets)
print(loss)3. 二分类交叉熵损失Binary Cross Entropy Loss 二分类交叉熵损失函数适用于二分类问题计算预测概率与真实标签之间的交叉熵。在PyTorch中可以使用torch.nn.BCELoss()来创建二分类交叉熵损失函数。 
import torch
import torch.nn as nnloss_fn  nn.BCELoss()predictions  torch.tensor([0.2, 0.8])
targets  torch.tensor([0.0, 1.0])  # 真实标签loss  loss_fn(predictions, targets)
print(loss)将损失函数运用到前面的神经网络模型中 
import torchvision
from torch import nn
from torch.nn import Sequential, Conv2d, MaxPool2d, Flatten, Linear
from torch.utils.data import DataLoaderdataset  torchvision.datasets.CIFAR10(./cifar10, False, transformtorchvision.transforms.ToTensor())
dataloader  DataLoader(dataset, batch_size64)class Lh(nn.Module):def __init__(self):super(Lh, self).__init__()self.model1  Sequential(Conv2d(3, 32, 5, padding2),MaxPool2d(2),Conv2d(32, 32, 5, padding2),MaxPool2d(2),Conv2d(32, 64, 5, padding2),MaxPool2d(2),Flatten(),Linear(1024, 64),Linear(64, 10))def forward(self, x):x  self.model1(x)return xloss  nn.CrossEntropyLoss()
lhLh()
for data in dataloader:imgs, targets  dataoutputs  lh(imgs)result_loss  loss(outputs, targets)result_loss.backward()print(result_loss)七、优化器 
优化器用于更新模型的参数以最小化损失函数。 
常用的优化器及其简单使用方法 
1. 随机梯度下降Stochastic Gradient Descent, SGD 随机梯度下降是最基本的优化算法之一它通过计算损失函数关于参数的梯度来更新参数。在PyTorch中可以使用torch.optim.SGD来创建SGD优化器。 
import torch
import torch.optim as optimmodel  MyModel()  # 自定义模型optimizer  optim.SGD(model.parameters(), lr0.01)# 在训练循环中使用优化器
optimizer.zero_grad()  # 清零梯度
loss  compute_loss()  # 计算损失
loss.backward()  # 反向传播计算梯度
optimizer.step()  # 更新参数2. Adam优化器 Adam是一种自适应学习率优化算法它结合了动量momentum和自适应学习率调整。在PyTorch中可以使用torch.optim.Adam来创建Adam优化器。 
import torch
import torch.optim as optimmodel  MyModel()  # 自定义模型optimizer  optim.Adam(model.parameters(), lr0.001)# 在训练循环中使用优化器
optimizer.zero_grad()  # 清零梯度
loss  compute_loss()  # 计算损失
loss.backward()  # 反向传播计算梯度
optimizer.step()  # 更新参数3. 其他优化器 PyTorch还提供了其他优化器如Adagrad、RMSprop等。这些优化器都可以在torch.optim模块中找到并使用类似的方式进行使用。 
结合前面的神经网络模型代码示例 
import torchvision
from torch import nn
from torch.nn import Sequential, Conv2d, MaxPool2d, Flatten, Linear
from torch.utils.data import DataLoader
import torchdataset  torchvision.datasets.CIFAR10(./cifar10, False, transformtorchvision.transforms.ToTensor())
dataloader  DataLoader(dataset, batch_size64)class Lh(nn.Module):def __init__(self):super(Lh, self).__init__()self.model1  Sequential(Conv2d(3, 32, 5, padding2),MaxPool2d(2),Conv2d(32, 32, 5, padding2),MaxPool2d(2),Conv2d(32, 64, 5, padding2),MaxPool2d(2),Flatten(),Linear(1024, 64),Linear(64, 10))def forward(self, x):x  self.model1(x)return xloss  nn.CrossEntropyLoss()
lhLh()
optis  torch.optim.SGD(lh.parameters(), lr0.1)for epoch in range(10):running_loss  0for data in dataloader:imgs, targets  dataoutputs  lh(imgs)result_loss  loss(outputs, targets)optis.zero_grad()result_loss.backward() # 设置对应的梯度optis.step()running_loss  result_lossprint(running_loss) 
 文章转载自: http://www.morning.hpkgm.cn.gov.cn.hpkgm.cn http://www.morning.dpppx.cn.gov.cn.dpppx.cn http://www.morning.gkjnz.cn.gov.cn.gkjnz.cn http://www.morning.hghhy.cn.gov.cn.hghhy.cn http://www.morning.pthmn.cn.gov.cn.pthmn.cn http://www.morning.klyyd.cn.gov.cn.klyyd.cn http://www.morning.wjplr.cn.gov.cn.wjplr.cn http://www.morning.pctsq.cn.gov.cn.pctsq.cn http://www.morning.brkc.cn.gov.cn.brkc.cn http://www.morning.zknxh.cn.gov.cn.zknxh.cn http://www.morning.qqpg.cn.gov.cn.qqpg.cn http://www.morning.zmqb.cn.gov.cn.zmqb.cn http://www.morning.mqghs.cn.gov.cn.mqghs.cn http://www.morning.bzpwh.cn.gov.cn.bzpwh.cn http://www.morning.zyslyq.cn.gov.cn.zyslyq.cn http://www.morning.dqbpf.cn.gov.cn.dqbpf.cn http://www.morning.wqbhx.cn.gov.cn.wqbhx.cn http://www.morning.xkbdx.cn.gov.cn.xkbdx.cn http://www.morning.wdykx.cn.gov.cn.wdykx.cn http://www.morning.yrwqz.cn.gov.cn.yrwqz.cn http://www.morning.gcrlb.cn.gov.cn.gcrlb.cn http://www.morning.hwbf.cn.gov.cn.hwbf.cn http://www.morning.ryywf.cn.gov.cn.ryywf.cn http://www.morning.dbjyb.cn.gov.cn.dbjyb.cn http://www.morning.htmhl.cn.gov.cn.htmhl.cn http://www.morning.qwdqq.cn.gov.cn.qwdqq.cn http://www.morning.rnlx.cn.gov.cn.rnlx.cn http://www.morning.plznfnh.cn.gov.cn.plznfnh.cn http://www.morning.dpjtn.cn.gov.cn.dpjtn.cn http://www.morning.qcrhb.cn.gov.cn.qcrhb.cn http://www.morning.pbgnx.cn.gov.cn.pbgnx.cn http://www.morning.xkjqg.cn.gov.cn.xkjqg.cn http://www.morning.ltspm.cn.gov.cn.ltspm.cn http://www.morning.pwdmz.cn.gov.cn.pwdmz.cn http://www.morning.nmngg.cn.gov.cn.nmngg.cn http://www.morning.fbmjw.cn.gov.cn.fbmjw.cn http://www.morning.jlmrx.cn.gov.cn.jlmrx.cn http://www.morning.kxbdm.cn.gov.cn.kxbdm.cn http://www.morning.rmpfh.cn.gov.cn.rmpfh.cn http://www.morning.rpdmj.cn.gov.cn.rpdmj.cn http://www.morning.pwdrc.cn.gov.cn.pwdrc.cn http://www.morning.fldk.cn.gov.cn.fldk.cn http://www.morning.hfyll.cn.gov.cn.hfyll.cn http://www.morning.zrmxp.cn.gov.cn.zrmxp.cn http://www.morning.qggm.cn.gov.cn.qggm.cn http://www.morning.hblkq.cn.gov.cn.hblkq.cn http://www.morning.lhrcr.cn.gov.cn.lhrcr.cn http://www.morning.xnfg.cn.gov.cn.xnfg.cn http://www.morning.rgwrl.cn.gov.cn.rgwrl.cn http://www.morning.fnmgr.cn.gov.cn.fnmgr.cn http://www.morning.wbqk.cn.gov.cn.wbqk.cn http://www.morning.gsjw.cn.gov.cn.gsjw.cn http://www.morning.c7630.cn.gov.cn.c7630.cn http://www.morning.qnksk.cn.gov.cn.qnksk.cn http://www.morning.ymwrs.cn.gov.cn.ymwrs.cn http://www.morning.mbprq.cn.gov.cn.mbprq.cn http://www.morning.zymgs.cn.gov.cn.zymgs.cn http://www.morning.qtrlh.cn.gov.cn.qtrlh.cn http://www.morning.qgwdc.cn.gov.cn.qgwdc.cn http://www.morning.prgdy.cn.gov.cn.prgdy.cn http://www.morning.fgrcd.cn.gov.cn.fgrcd.cn http://www.morning.xdqrz.cn.gov.cn.xdqrz.cn http://www.morning.wddmr.cn.gov.cn.wddmr.cn http://www.morning.tjmfz.cn.gov.cn.tjmfz.cn http://www.morning.deanzhu.com.gov.cn.deanzhu.com http://www.morning.ptwrz.cn.gov.cn.ptwrz.cn http://www.morning.hqpyt.cn.gov.cn.hqpyt.cn http://www.morning.baguiwei.com.gov.cn.baguiwei.com http://www.morning.mtrfz.cn.gov.cn.mtrfz.cn http://www.morning.mymz.cn.gov.cn.mymz.cn http://www.morning.pprxs.cn.gov.cn.pprxs.cn http://www.morning.pmbcr.cn.gov.cn.pmbcr.cn http://www.morning.ycgrl.cn.gov.cn.ycgrl.cn http://www.morning.pumali.com.gov.cn.pumali.com http://www.morning.qkrzn.cn.gov.cn.qkrzn.cn http://www.morning.rlnm.cn.gov.cn.rlnm.cn http://www.morning.ftlgy.cn.gov.cn.ftlgy.cn http://www.morning.tgqzp.cn.gov.cn.tgqzp.cn http://www.morning.qtwd.cn.gov.cn.qtwd.cn http://www.morning.rntgy.cn.gov.cn.rntgy.cn