当前位置: 首页 > news >正文

德保网站建设国家官方网站

德保网站建设,国家官方网站,网络优化大师手机版,网站开发 维护岗位职责为什么去西藏的人都会感觉很治愈 拉萨的老中医是这么说的 缺氧脑子短路#xff0c;很多事想不起来#xff0c;就会感觉很幸福 一、卷积层 解释#xff1a;卷积层通过卷积操作对输入数据进行处理。它使用一组可学习的滤波器#xff08;也称为卷积核或特征检测器#xff09… 为什么去西藏的人都会感觉很治愈 拉萨的老中医是这么说的 缺氧脑子短路很多事想不起来就会感觉很幸福 一、卷积层 解释卷积层通过卷积操作对输入数据进行处理。它使用一组可学习的滤波器也称为卷积核或特征检测器将滤波器与输入数据进行逐元素的乘法累加操作从而生成输出特征图。这种滤波器的操作类似于图像处理中的卷积操作因此得名卷积层。 主要作用 特征提取卷积层通过滤波器的卷积操作可以有效地提取输入数据中的局部特征。滤波器可以学习到不同的特征例如边缘、纹理、形状等这些特征对于图像识别和分类等任务非常重要。 参数共享卷积层的滤波器在整个输入数据上共享参数。这意味着在不同位置上使用相同的滤波器从而减少了需要学习的参数数量。这种参数共享的特性使得卷积层具有一定的平移不变性即对于输入数据的平移操作具有不变性。 减少参数数量相比全连接层每个神经元与上一层的所有神经元相连卷积层的参数数量较少。这是因为卷积层的滤波器在空间上共享参数并且每个滤波器只与输入数据的局部区域进行卷积操作。这种参数共享和局部连接的方式大大减少了需要学习的参数数量提高了模型的效率和泛化能力。 空间结构保持卷积层在进行卷积操作时保持了输入数据的空间结构。这意味着输出特征图的每个元素对应于输入数据的相应局部区域从而保留了输入数据的空间信息。这对于图像处理任务非常重要因为图像中的相邻像素之间存在一定的关联性。 使用示例 代码示例 import torch import torch.nn.functional as F# 模拟图像 input torch.tensor([[1, 2, 0, 3, 1],[0, 1, 2, 3, 1],[1, 2, 1, 0, 0],[5, 2, 3, 1, 1],[2, 1, 0, 1, 1]]) # 模拟卷积核 kernal torch.tensor([[1, 2, 1],[0, 1, 0],[2, 1, 0]])# 参数结构转化 input torch.reshape(input, (1, 1, 5, 5)) kernal torch.reshape(kernal, (1, 1, 3, 3))print(input.shape) print(kernal.shape)# 输入经过卷积操作 output F.conv2d(input, kernal, stride2, padding1) print(output) 输出 torch.Size([1, 1, 5, 5]) torch.Size([1, 1, 3, 3]) tensor([[[[ 1, 4, 8],[ 7, 16, 8],[14, 9, 4]]]]) 图片数据集经过卷积层输出 import torch import torchvision from torch.utils.data import DataLoader from torch.nn import Conv2d from torch import nn from torch.utils.tensorboard import SummaryWriter# 加载数据集并加载到神经网络中 dataset torchvision.datasets.CIFAR10(./cifar10, trainFalse, transformtorchvision.transforms.ToTensor(),downloadFalse) dataloader DataLoader(dataset, batch_size64)class Lh(nn.Module):def __init__(self):super(Lh, self).__init__()self.conv1 Conv2d(3, 6, 3, 1)def forward(self, x):x self.conv1(x)return xlh Lh()writer SummaryWriter(logs) step 0 for data in dataloader:imgs, targets dataoutput lh(imgs)writer.add_images(input, imgs, step)output torch.reshape(output, (-1, 3, 30, 30))writer.add_images(output, output, step)step 1通过tensorboard展示 二、最大池化层 解释它将输入数据划分为不重叠的矩形区域通常是2x2的窗口然后在每个区域中选择最大值作为输出。这样最大池化层通过取每个区域中的最大值来减少数据的维度。 主要作用 特征减少最大池化层可以减少输入数据的空间尺寸从而降低了模型的计算复杂度。通过减少特征图的尺寸最大池化层能够在保留重要特征的同时减少需要处理的数据量提高模型的效率。 平移不变性最大池化层具有一定的平移不变性即对于输入数据的平移操作具有不变性。这是因为在最大池化操作中只选择每个区域中的最大值而不考虑其位置信息。这种平移不变性使得神经网络对于输入数据的位置变化具有一定的鲁棒性。 特征提取最大池化层可以帮助提取输入数据中的主要特征。通过选择每个区域中的最大值作为输出最大池化层能够保留输入数据中的重要特征并且对于噪声和不重要的细节具有一定的鲁棒性。 最大池化层在神经网络中起到了减少数据维度、提取关键特征和增强模型的鲁棒性等作用简单来说就是把1080p的视频变成720p的。它通常与卷积层交替使用帮助神经网络有效地处理输入数据提高模型的性能和泛化能力。 使用示例 import torch from torch.nn import MaxPool2d from torch import nn import torchvision from torch.utils.data import DataLoader from torch.utils.tensorboard import SummaryWriterdataset torchvision.datasets.CIFAR10(./cifar10, trainFalse, transformtorchvision.transforms.ToTensor(),downloadFalse) dataloader DataLoader(dataset, 64, False)input torch.tensor([[1, 2, 0, 3, 1],[0, 1, 2, 3, 1],[1, 2, 1, 0, 0],[5, 2, 3, 1, 1],[2, 1, 0, 1, 1]], dtypetorch.float32)input torch.reshape(input, (1, 1, 5, 5))class Lh(nn.Module):def __init__(self):super(Lh, self).__init__()self.maxpool MaxPool2d(kernel_size3, ceil_modeTrue)def forward(self, x):x self.maxpool(x)return xlh Lh()writer SummaryWriter(logs) step 0 for data in dataloader:imgs, tagerts datawriter.add_images(input, imgs, step)output lh(imgs)writer.add_images(output, output, step)step 1writer.close()使用torchboard打卡 三、非线性激活函数 解释神经网络的非线性激活函数是在神经网络的每个神经元上引入非线性变换的函数。它的作用是为神经网络引入非线性能力从而使网络能够学习和表示更加复杂的函数关系。 主要作用 引入非线性线性变换的组合只能表示线性关系而神经网络的层级结构和参数学习能力使其具备了更强大的函数逼近能力。非线性激活函数的引入打破了线性关系的限制使得神经网络可以学习和表示非线性的函数关系从而更好地适应复杂的数据模式。 增强模型的表达能力非线性激活函数可以增强神经网络的表达能力使其能够学习和表示更加复杂的特征和模式。通过引入非线性变换激活函数可以对输入信号进行非线性映射从而提取和表示更多种类的特征帮助网络更好地理解输入数据。 解决分类问题的非线性可分性在处理分类问题时输入数据通常是非线性可分的。非线性激活函数可以帮助神经网络学习并表示类别之间的非线性边界从而提高分类准确性。例如常用的激活函数如ReLU、Sigmoid和Tanh等都是非线性的它们可以帮助神经网络学习并表示复杂的决策边界。 缓解梯度消失问题在深层神经网络中反向传播算法需要通过链式法则计算梯度并更新参数。线性激活函数如恒等映射会导致梯度的乘积变得非常小从而导致梯度消失问题。而非线性激活函数可以通过引入非线性变换使得梯度能够在网络中传播并保持较大的幅度从而缓解了梯度消失问题有助于更好地训练深层网络。 使用示例 import torch import torchvision.datasets from torch import nn from torch.nn import ReLU, Sigmoid from torch.utils.data import DataLoader from torch.utils.tensorboard import SummaryWriterinput torch.tensor([[1, 2, 0, 3, 1],[0, 1, 2, 3, 1],[1, 2, 1, 0, 0],[5, 2, 3, 1, 1],[2, 1, 0, 1, 1]], dtypetorch.float32)input torch.reshape(input, (-1, 1, 5, 5))dataset torchvision.datasets.CIFAR10(./cifar10, False, transformtorchvision.transforms.ToTensor()) dataloader DataLoader(dataset, 64)class Lh(nn.Module):def __init__(self):super(Lh, self).__init__()self.relu1 ReLU()self.sigmoid Sigmoid()def forward(self, input):return self.sigmoid(input)lh Lh()step 0 writer SummaryWriter(logs)for data in dataloader:imgs, targets datawriter.add_images(input, imgs, step)output lh(imgs)writer.add_images(output, output, step)step 1writer.close()print(end)使用torchboard打开 四、其它层与神经网络模型 查看pytorch的官方文档可以看到神经网络中不同层及其使用 你可以创建自己的神经网络然后自由搭配里面的网络层进行模型的训练。但是一般情况下我们不用手动去一层一层构建因为官网提供了很多已经搭配好的神经网络模型这些模型的训练效果都非常不错我们只需要选择构建好的模型使用即可。 如 torchvision.models 五、神经网络搭建小实战 crfar10 model structure 根据上图以input为 332 * 32为例可更据公式计算pandding 代码示例 from torch import nn from torch.nn import Conv2d, MaxPool2d, Flatten, Linear, Sequential import torchclass Lh(nn.Module):def __init__(self):super(Lh, self).__init__()self.model1 Sequential(Conv2d(3, 32, 5, padding2),MaxPool2d(2),Conv2d(32, 32, 5, padding2),MaxPool2d(2),Conv2d(32, 64, 5, padding2),MaxPool2d(2),Flatten(),Linear(1024, 64),Linear(64, 10))def forward(self, x):x self.model1(x)return xlh Lh() input torch.ones((64,3,32,32)) print(input.shape) output lh(input) print(output.shape)可以使用tensorboard绘制神经网络流程图 writer SummaryWriter(logs) writer.add_graph(lh, input) writer.close() 六、损失函数 损失函数用于衡量模型的预测输出与真实标签之间的差异并且在训练过程中用于优化模型的参数。 常用的损失函数及其简单使用方法 1. 均方误差损失Mean Squared Error, MSE 均方误差损失函数用于回归问题计算预测值与真实值之间的平均平方差。它可以通过torch.nn.MSELoss()来创建。 import torch import torch.nn as nnloss_fn nn.MSELoss()predictions torch.tensor([0.5, 0.8, 1.2]) targets torch.tensor([1.0, 1.0, 1.0])loss loss_fn(predictions, targets) print(loss)2. 交叉熵损失Cross Entropy Loss 交叉熵损失函数常用于分类问题特别是多分类问题。它计算预测概率分布与真实标签之间的交叉熵。在PyTorch中可以使用torch.nn.CrossEntropyLoss()来创建交叉熵损失函数。 import torch import torch.nn as nnloss_fn nn.CrossEntropyLoss()predictions torch.tensor([[0.2, 0.3, 0.5], [0.8, 0.1, 0.1]]) targets torch.tensor([2, 0]) # 真实标签loss loss_fn(predictions, targets) print(loss)3. 二分类交叉熵损失Binary Cross Entropy Loss 二分类交叉熵损失函数适用于二分类问题计算预测概率与真实标签之间的交叉熵。在PyTorch中可以使用torch.nn.BCELoss()来创建二分类交叉熵损失函数。 import torch import torch.nn as nnloss_fn nn.BCELoss()predictions torch.tensor([0.2, 0.8]) targets torch.tensor([0.0, 1.0]) # 真实标签loss loss_fn(predictions, targets) print(loss)将损失函数运用到前面的神经网络模型中 import torchvision from torch import nn from torch.nn import Sequential, Conv2d, MaxPool2d, Flatten, Linear from torch.utils.data import DataLoaderdataset torchvision.datasets.CIFAR10(./cifar10, False, transformtorchvision.transforms.ToTensor()) dataloader DataLoader(dataset, batch_size64)class Lh(nn.Module):def __init__(self):super(Lh, self).__init__()self.model1 Sequential(Conv2d(3, 32, 5, padding2),MaxPool2d(2),Conv2d(32, 32, 5, padding2),MaxPool2d(2),Conv2d(32, 64, 5, padding2),MaxPool2d(2),Flatten(),Linear(1024, 64),Linear(64, 10))def forward(self, x):x self.model1(x)return xloss nn.CrossEntropyLoss() lhLh() for data in dataloader:imgs, targets dataoutputs lh(imgs)result_loss loss(outputs, targets)result_loss.backward()print(result_loss)七、优化器 优化器用于更新模型的参数以最小化损失函数。 常用的优化器及其简单使用方法 1. 随机梯度下降Stochastic Gradient Descent, SGD 随机梯度下降是最基本的优化算法之一它通过计算损失函数关于参数的梯度来更新参数。在PyTorch中可以使用torch.optim.SGD来创建SGD优化器。 import torch import torch.optim as optimmodel MyModel() # 自定义模型optimizer optim.SGD(model.parameters(), lr0.01)# 在训练循环中使用优化器 optimizer.zero_grad() # 清零梯度 loss compute_loss() # 计算损失 loss.backward() # 反向传播计算梯度 optimizer.step() # 更新参数2. Adam优化器 Adam是一种自适应学习率优化算法它结合了动量momentum和自适应学习率调整。在PyTorch中可以使用torch.optim.Adam来创建Adam优化器。 import torch import torch.optim as optimmodel MyModel() # 自定义模型optimizer optim.Adam(model.parameters(), lr0.001)# 在训练循环中使用优化器 optimizer.zero_grad() # 清零梯度 loss compute_loss() # 计算损失 loss.backward() # 反向传播计算梯度 optimizer.step() # 更新参数3. 其他优化器 PyTorch还提供了其他优化器如Adagrad、RMSprop等。这些优化器都可以在torch.optim模块中找到并使用类似的方式进行使用。 结合前面的神经网络模型代码示例 import torchvision from torch import nn from torch.nn import Sequential, Conv2d, MaxPool2d, Flatten, Linear from torch.utils.data import DataLoader import torchdataset torchvision.datasets.CIFAR10(./cifar10, False, transformtorchvision.transforms.ToTensor()) dataloader DataLoader(dataset, batch_size64)class Lh(nn.Module):def __init__(self):super(Lh, self).__init__()self.model1 Sequential(Conv2d(3, 32, 5, padding2),MaxPool2d(2),Conv2d(32, 32, 5, padding2),MaxPool2d(2),Conv2d(32, 64, 5, padding2),MaxPool2d(2),Flatten(),Linear(1024, 64),Linear(64, 10))def forward(self, x):x self.model1(x)return xloss nn.CrossEntropyLoss() lhLh() optis torch.optim.SGD(lh.parameters(), lr0.1)for epoch in range(10):running_loss 0for data in dataloader:imgs, targets dataoutputs lh(imgs)result_loss loss(outputs, targets)optis.zero_grad()result_loss.backward() # 设置对应的梯度optis.step()running_loss result_lossprint(running_loss)
文章转载自:
http://www.morning.hpkgm.cn.gov.cn.hpkgm.cn
http://www.morning.dpppx.cn.gov.cn.dpppx.cn
http://www.morning.gkjnz.cn.gov.cn.gkjnz.cn
http://www.morning.hghhy.cn.gov.cn.hghhy.cn
http://www.morning.pthmn.cn.gov.cn.pthmn.cn
http://www.morning.klyyd.cn.gov.cn.klyyd.cn
http://www.morning.wjplr.cn.gov.cn.wjplr.cn
http://www.morning.pctsq.cn.gov.cn.pctsq.cn
http://www.morning.brkc.cn.gov.cn.brkc.cn
http://www.morning.zknxh.cn.gov.cn.zknxh.cn
http://www.morning.qqpg.cn.gov.cn.qqpg.cn
http://www.morning.zmqb.cn.gov.cn.zmqb.cn
http://www.morning.mqghs.cn.gov.cn.mqghs.cn
http://www.morning.bzpwh.cn.gov.cn.bzpwh.cn
http://www.morning.zyslyq.cn.gov.cn.zyslyq.cn
http://www.morning.dqbpf.cn.gov.cn.dqbpf.cn
http://www.morning.wqbhx.cn.gov.cn.wqbhx.cn
http://www.morning.xkbdx.cn.gov.cn.xkbdx.cn
http://www.morning.wdykx.cn.gov.cn.wdykx.cn
http://www.morning.yrwqz.cn.gov.cn.yrwqz.cn
http://www.morning.gcrlb.cn.gov.cn.gcrlb.cn
http://www.morning.hwbf.cn.gov.cn.hwbf.cn
http://www.morning.ryywf.cn.gov.cn.ryywf.cn
http://www.morning.dbjyb.cn.gov.cn.dbjyb.cn
http://www.morning.htmhl.cn.gov.cn.htmhl.cn
http://www.morning.qwdqq.cn.gov.cn.qwdqq.cn
http://www.morning.rnlx.cn.gov.cn.rnlx.cn
http://www.morning.plznfnh.cn.gov.cn.plznfnh.cn
http://www.morning.dpjtn.cn.gov.cn.dpjtn.cn
http://www.morning.qcrhb.cn.gov.cn.qcrhb.cn
http://www.morning.pbgnx.cn.gov.cn.pbgnx.cn
http://www.morning.xkjqg.cn.gov.cn.xkjqg.cn
http://www.morning.ltspm.cn.gov.cn.ltspm.cn
http://www.morning.pwdmz.cn.gov.cn.pwdmz.cn
http://www.morning.nmngg.cn.gov.cn.nmngg.cn
http://www.morning.fbmjw.cn.gov.cn.fbmjw.cn
http://www.morning.jlmrx.cn.gov.cn.jlmrx.cn
http://www.morning.kxbdm.cn.gov.cn.kxbdm.cn
http://www.morning.rmpfh.cn.gov.cn.rmpfh.cn
http://www.morning.rpdmj.cn.gov.cn.rpdmj.cn
http://www.morning.pwdrc.cn.gov.cn.pwdrc.cn
http://www.morning.fldk.cn.gov.cn.fldk.cn
http://www.morning.hfyll.cn.gov.cn.hfyll.cn
http://www.morning.zrmxp.cn.gov.cn.zrmxp.cn
http://www.morning.qggm.cn.gov.cn.qggm.cn
http://www.morning.hblkq.cn.gov.cn.hblkq.cn
http://www.morning.lhrcr.cn.gov.cn.lhrcr.cn
http://www.morning.xnfg.cn.gov.cn.xnfg.cn
http://www.morning.rgwrl.cn.gov.cn.rgwrl.cn
http://www.morning.fnmgr.cn.gov.cn.fnmgr.cn
http://www.morning.wbqk.cn.gov.cn.wbqk.cn
http://www.morning.gsjw.cn.gov.cn.gsjw.cn
http://www.morning.c7630.cn.gov.cn.c7630.cn
http://www.morning.qnksk.cn.gov.cn.qnksk.cn
http://www.morning.ymwrs.cn.gov.cn.ymwrs.cn
http://www.morning.mbprq.cn.gov.cn.mbprq.cn
http://www.morning.zymgs.cn.gov.cn.zymgs.cn
http://www.morning.qtrlh.cn.gov.cn.qtrlh.cn
http://www.morning.qgwdc.cn.gov.cn.qgwdc.cn
http://www.morning.prgdy.cn.gov.cn.prgdy.cn
http://www.morning.fgrcd.cn.gov.cn.fgrcd.cn
http://www.morning.xdqrz.cn.gov.cn.xdqrz.cn
http://www.morning.wddmr.cn.gov.cn.wddmr.cn
http://www.morning.tjmfz.cn.gov.cn.tjmfz.cn
http://www.morning.deanzhu.com.gov.cn.deanzhu.com
http://www.morning.ptwrz.cn.gov.cn.ptwrz.cn
http://www.morning.hqpyt.cn.gov.cn.hqpyt.cn
http://www.morning.baguiwei.com.gov.cn.baguiwei.com
http://www.morning.mtrfz.cn.gov.cn.mtrfz.cn
http://www.morning.mymz.cn.gov.cn.mymz.cn
http://www.morning.pprxs.cn.gov.cn.pprxs.cn
http://www.morning.pmbcr.cn.gov.cn.pmbcr.cn
http://www.morning.ycgrl.cn.gov.cn.ycgrl.cn
http://www.morning.pumali.com.gov.cn.pumali.com
http://www.morning.qkrzn.cn.gov.cn.qkrzn.cn
http://www.morning.rlnm.cn.gov.cn.rlnm.cn
http://www.morning.ftlgy.cn.gov.cn.ftlgy.cn
http://www.morning.tgqzp.cn.gov.cn.tgqzp.cn
http://www.morning.qtwd.cn.gov.cn.qtwd.cn
http://www.morning.rntgy.cn.gov.cn.rntgy.cn
http://www.tj-hxxt.cn/news/275910.html

相关文章:

  • 国内装饰行业网站开发手机app定制开发公司
  • 外贸商城网站建设公司深圳推广平台深圳网络推广
  • 相册特效手机网站重庆最好的网站建设
  • 制作外贸型网站哈尔滨市做淘宝的网站
  • flutter 如何做网站html代码怎么下载
  • 无证做音频网站违法吗汽车报价软件排行榜
  • 射阳住房和建设局网站企业信息公示平台
  • 怎么在网站视频做字幕常用的营销策略
  • 帮公司做网站wordpress 如何更新
  • 廊坊cms建站模板青岛科技街网站建设
  • 如何做淘宝网站天津哪家做网站好
  • 什么是最经典最常用的网站推广方式济南网站建设丨 首选搜点网络
  • 怀柔做网站的公司合肥大型网站建设
  • 做医疗器械网站xp系统做网站服务器
  • 做网站赚钱交税apicloud怎么样
  • 网站架构设计文档西安微信网站开发
  • 沈阳高端网站制作公司开发一款app需要多少钱?
  • net公司网站开发框架源代码网站怎么建设模块
  • 德州手机网站建设电话wordpress 底部栏位置
  • 手机网站分类菜单二维码生成器加logo
  • 怎么做劳务公司网站wordpress主题发布
  • 西安网站建设制作 熊掌号wordpress链接自定义结构404
  • 南宁 网站建设 公司网站建设合作协议模板
  • 云南住房和城乡建设局网站找人做网站
  • 百度上面如何做网站网站建设跳转页面怎么弄
  • 做个普通的网站多少钱重庆网站设计公司价格
  • 安全网站建设wordpress shopy主题
  • 网站建设关于深圳免费网站建设
  • 广州网站改版设计公司网络运营商架构
  • 百度推广和网站建设推广的区别2016国外网站设计欣赏