当前位置: 首页 > news >正文

地图网站开发青岛seo网站管理

地图网站开发,青岛seo网站管理,资阳优化团队招商,现在做网站用什么神经网络基本骨架的搭建 Module#xff1a;给所有的神经网络提供一个基本的骨架#xff0c;所有神经网络都需要继承Module#xff0c;并定义_ _ init _ _方法、 forward() 方法在_ _ init _ _方法中定义#xff0c;卷积层的具体变换#xff0c;在forward() 方法中定义给所有的神经网络提供一个基本的骨架所有神经网络都需要继承Module并定义_ _ init _ _方法、 forward() 方法在_ _ init _ _方法中定义卷积层的具体变换在forward() 方法中定义神经网络的前向传播具体是什么样的官方代码样例如下 import torch.nn as nn import torch.nn.functional as Fclass Model(nn.Module):def __init__(self):super().__init__()self.conv1 nn.Conv2d(1, 20, 5)self.conv2 nn.Conv2d(20, 20, 5)def forward(self, x):x F.relu(self.conv1(x))return F.relu(self.conv2(x))表明输入 x 经过一个卷积层A一个非线性层a一个卷积层B一个非线性层b最后输出如下图 简单模型代码如下 from torch import nn import torch# 定义一个简单的Module class Tudui(nn.Module):def __init__(self): # 初始化函数super().__init__() # 调用父类的初始化函数def forward(self, input): # 前向传播函数output input 1 # 定义张量的加法运算return output # 返回输出张量tudui Tudui() # 实例化一个Tudui对象 x torch.tensor(1.0) # tensor()函数可以将任意数据转换为张量 print(tudui(x))* 注意可以在调试模式中选择单步执行代码一步一步执行更清晰2D卷积操作了解原理即可实际直接使用卷积层 2D卷积操作卷积核在输入图像上不断移动并把对应位相乘再求和最后得到输出结果以下是参数设置 input输入张量的维数要是四维batch表示一次输入多少张图像channel表示通道数RGB图像的通道数为3灰度图像一层二维张量的通道数为1H为高度W为宽度weight卷积核维数也要是四维out_channel表示输出通道数卷积核的数量in_channel表示输入图像的通道数一般groups为1H为高度W为宽度stride卷积核每次移动的步长为整数或者长度为2的元组如果是整数表示在水平和垂直方向上使用相同的步长。如果是元组分别表示在水平和垂直方向上的步长。默认为1。padding控制在输入张量的边界周围添加的零填充的数量为整数或长度为2的元组如果是整数表示在水平和垂直方向上使用相同的填充数量。如果是元组分别表示在水平和垂直方向上的填充数量。默认为0 例如将一张灰度图经过2D卷积操作得到输出的代码如下 import torch# 因为想让输入数据是tensor类型的所以使用torch.tensor input torch.tensor([[1,2,0,3,1],[0,1,2,3,1],[1,2,1,0,0],[5,2,3,1,1],[2,1,0,1,1]])# 因为想让卷积核是tensor类型的所以使用torch.tensor kernel torch.tensor([[1,2,1],[0,1,0],[2,1,0]]) print(input.shape) # torch.Size([5, 5]) print(kernel.shape) # torch.Size([3, 3])# 由于卷积核的尺寸和输入的尺寸都不满足卷积运算的要求所以需要对输入和卷积核进行维度的扩展 input torch.reshape(input, [1,1,5,5]) # 输入是一张二维图片所以batch_size1一张通道数为1二维张量 kernel torch.reshape(kernel, [1,1,3,3]) # 卷积核的个数为1所以输出通道数为1输入通道数由上可知为1print(input.shape) # torch.Size([1, 1, 5, 5]) print(kernel.shape) # torch.Size([1, 1, 3, 3])output torch.nn.functional.conv2d(input, kernel, stride1) # 经过2D卷积运算后的输出 print(output)可视化图如下 padding设置为1的可视化图如下 2D卷积层 2D卷积层通常我们直接使用卷积层即可上一节仅供了解以下是参数设置 in_channels输入通道数RGB图像为3灰度图像为1一层二维张量为1out_channels输出通道数即卷积核的个数kernel_size卷积核的高宽整数或元组整数时表示高宽都为该整数元组时表示分别在水平和垂直方向上的长度。我们只需要设置卷积核的高宽而卷积核内部的具体参数不需要我们指定它是在神经网络的训练中不断地对分布进行采样同时进行不断调整stride卷积核每次移动的步长整数或元组整数时表示在水平和垂直方向上使用相同的步长。元组时分别表示在水平和垂直方向上的步长。默认为1。padding控制在输入张量的边界周围添加的零填充的数量为整数或元组如果是整数表示在水平和垂直方向上使用相同的填充数量。如果是元组分别表示在水平和垂直方向上的填充数量。默认为0padding_mode控制以什么样的模式进行填充默认为 zeros 零填充dilation卷积核内部元素之间的距离空洞卷积groups默认为1bias给输出加一个偏置默认为True 以下是2D卷积层的可视化图像青色的为输出图像蓝色为输入图像深蓝色为卷积核 No paddingNo stridesAribitrary paddingNo strides Half paddingNo stridesFull paddingNo strides No paddingstridesPaddingstridesPaddingstridesodd 当out_channel 为2时卷积核也为2个会先拿第一个卷积核与输入图像进行卷积得到第一个输出然后会拿第二个卷积核与输入图像进行卷积得到第二个输出这两个卷积核内部的具体参数可能会不同最后把这两个输出叠加起来得到最终的输出以下是可视化图像 构建一个包含一层简单2D卷积层的神经网络模型代码如下 import torch import torch.nn as nn import torchvisiontest_dataset torchvision.datasets.CIFAR10(rootDataset, trainFalse, downloadTrue, transformtorchvision.transforms.ToTensor()) test_loader torch.utils.data.DataLoader(test_dataset, batch_size64, shuffleFalse, num_workers0)class Tudui(nn.Module):def __init__(self): # 初始化super().__init__() # 继承父类的初始化self.conv1 nn.Conv2d(3, 6, 3, 1, 0) # 输入通道数3输出通道数6卷积核大小3*3步长1填充0def forward(self, x): # 前向传播x self.conv1(x) # 调用卷积层对输入x进行卷积return xtudui Tudui() # 实例化网络模型print(tudui) # 打印网络结构# 输出结果 # Files already downloaded and verified # Tudui( # (conv1): Conv2d(3, 6, kernel_size(3, 3), stride(1, 1)) # )打印输入和输出的代码如下 注意由于输入经过了一层卷积所以输出尺寸会变小 for data in test_loader:imgs, targets dataoutputs tudui(imgs) # 调用网络模型进行前向传播print(imgs.shape) # 打印输入数据的形状torch.Size([64, 3, 32, 32])print(outputs.shape) # 打印输出数据的形状torch.Size([64, 6, 30, 30])可以通过tensorboard来展示输入图像和输出图像代码如下 注意 由于outputs的channel为6而add_images函数要求channel为3所以需要对outputs进行处理把torch.Size([64, 6, 30, 30]) - torch.Size([xx, 3, 30, 30]) 把6个通道变成3个通道多出来的部分就打包放入batch_size中如果不知道变换后的batch_size是多少可以写-1PyTorch会自动计算 import torch import torch.nn as nn import torchvision from torch.utils.tensorboard import SummaryWritertest_dataset torchvision.datasets.CIFAR10(rootDataset, trainFalse, downloadTrue, transformtorchvision.transforms.ToTensor()) test_loader torch.utils.data.DataLoader(test_dataset, batch_size64, shuffleFalse, num_workers0)class Tudui(nn.Module):def __init__(self): # 初始化super().__init__() # 继承父类的初始化self.conv1 nn.Conv2d(3, 6, 3, 1, 0) # 输入通道数3输出通道数6卷积核大小3*3步长1填充0def forward(self, x): # 前向传播x self.conv1(x) # 调用卷积层对输入x进行卷积return xtudui Tudui() # 实例化网络模型writer SummaryWriter(logs) # 创建一个SummaryWriter对象指定日志文件保存路径 step 0 for data in test_loader:imgs, targets dataoutputs tudui(imgs) # 调用网络模型进行前向传播writer.add_images(input, imgs, step) # 将输入数据imgs写入日志文件# 由于outputs的channel为6而add_images函数要求channel为3所以需要对outputs进行处理# 把torch.Size([64, 6, 30, 30]) - torch.Size([xx, 3, 30, 30]) 把6个通道变成3个通道多出来的部分就打包放入batch_size中# 如果不知道变换后的batch_size是多少可以使用-1PyTorch会自动计算outputs torch.reshape(outputs, (-1, 3, 30, 30)) # 将outputs的channel从6改为3writer.add_images(output, outputs, step) # 将输出数据outputs写入日志文件step 1writer.close() # 关闭日志文件结果如下 注意如果别人论文里没有写stride、padding具体为多少那么我们可以根据以下式子进行推导 Nbatch_sizeCchannelH高W宽
文章转载自:
http://www.morning.snxbf.cn.gov.cn.snxbf.cn
http://www.morning.xwlhc.cn.gov.cn.xwlhc.cn
http://www.morning.qczpf.cn.gov.cn.qczpf.cn
http://www.morning.wrtxk.cn.gov.cn.wrtxk.cn
http://www.morning.wnqfz.cn.gov.cn.wnqfz.cn
http://www.morning.aiai201.cn.gov.cn.aiai201.cn
http://www.morning.bqpgq.cn.gov.cn.bqpgq.cn
http://www.morning.szoptic.com.gov.cn.szoptic.com
http://www.morning.ydwsg.cn.gov.cn.ydwsg.cn
http://www.morning.ygrdb.cn.gov.cn.ygrdb.cn
http://www.morning.pbpcj.cn.gov.cn.pbpcj.cn
http://www.morning.mjbnp.cn.gov.cn.mjbnp.cn
http://www.morning.rwqj.cn.gov.cn.rwqj.cn
http://www.morning.kyctc.cn.gov.cn.kyctc.cn
http://www.morning.jbtlf.cn.gov.cn.jbtlf.cn
http://www.morning.mlgsc.com.gov.cn.mlgsc.com
http://www.morning.rhjhy.cn.gov.cn.rhjhy.cn
http://www.morning.xjwtq.cn.gov.cn.xjwtq.cn
http://www.morning.yzktr.cn.gov.cn.yzktr.cn
http://www.morning.yaqi6.com.gov.cn.yaqi6.com
http://www.morning.jjzxn.cn.gov.cn.jjzxn.cn
http://www.morning.sgwr.cn.gov.cn.sgwr.cn
http://www.morning.clzly.cn.gov.cn.clzly.cn
http://www.morning.rdpps.cn.gov.cn.rdpps.cn
http://www.morning.dzqyn.cn.gov.cn.dzqyn.cn
http://www.morning.qgtfl.cn.gov.cn.qgtfl.cn
http://www.morning.gwgjl.cn.gov.cn.gwgjl.cn
http://www.morning.lksgz.cn.gov.cn.lksgz.cn
http://www.morning.xfncq.cn.gov.cn.xfncq.cn
http://www.morning.bksbx.cn.gov.cn.bksbx.cn
http://www.morning.bpp999.com.gov.cn.bpp999.com
http://www.morning.prplf.cn.gov.cn.prplf.cn
http://www.morning.wjplm.cn.gov.cn.wjplm.cn
http://www.morning.gqddl.cn.gov.cn.gqddl.cn
http://www.morning.baguiwei.com.gov.cn.baguiwei.com
http://www.morning.prjty.cn.gov.cn.prjty.cn
http://www.morning.wjxyg.cn.gov.cn.wjxyg.cn
http://www.morning.lfpdc.cn.gov.cn.lfpdc.cn
http://www.morning.yqtry.cn.gov.cn.yqtry.cn
http://www.morning.ntwfr.cn.gov.cn.ntwfr.cn
http://www.morning.tngdn.cn.gov.cn.tngdn.cn
http://www.morning.lxqkt.cn.gov.cn.lxqkt.cn
http://www.morning.qtrlh.cn.gov.cn.qtrlh.cn
http://www.morning.wqfj.cn.gov.cn.wqfj.cn
http://www.morning.jkpnm.cn.gov.cn.jkpnm.cn
http://www.morning.mhnb.cn.gov.cn.mhnb.cn
http://www.morning.xdlwm.cn.gov.cn.xdlwm.cn
http://www.morning.ftmly.cn.gov.cn.ftmly.cn
http://www.morning.jrbyz.cn.gov.cn.jrbyz.cn
http://www.morning.jzlkq.cn.gov.cn.jzlkq.cn
http://www.morning.lxngn.cn.gov.cn.lxngn.cn
http://www.morning.rmpkn.cn.gov.cn.rmpkn.cn
http://www.morning.webpapua.com.gov.cn.webpapua.com
http://www.morning.lfqtp.cn.gov.cn.lfqtp.cn
http://www.morning.dkzwx.cn.gov.cn.dkzwx.cn
http://www.morning.tkgxg.cn.gov.cn.tkgxg.cn
http://www.morning.pylpd.cn.gov.cn.pylpd.cn
http://www.morning.rmqmc.cn.gov.cn.rmqmc.cn
http://www.morning.zdhnm.cn.gov.cn.zdhnm.cn
http://www.morning.ykkrg.cn.gov.cn.ykkrg.cn
http://www.morning.tnwgc.cn.gov.cn.tnwgc.cn
http://www.morning.ljzss.cn.gov.cn.ljzss.cn
http://www.morning.pjtw.cn.gov.cn.pjtw.cn
http://www.morning.dkzrs.cn.gov.cn.dkzrs.cn
http://www.morning.gwjnm.cn.gov.cn.gwjnm.cn
http://www.morning.pkpqh.cn.gov.cn.pkpqh.cn
http://www.morning.xphls.cn.gov.cn.xphls.cn
http://www.morning.pycpt.cn.gov.cn.pycpt.cn
http://www.morning.nfbkp.cn.gov.cn.nfbkp.cn
http://www.morning.hnzrl.cn.gov.cn.hnzrl.cn
http://www.morning.fndfn.cn.gov.cn.fndfn.cn
http://www.morning.brmbm.cn.gov.cn.brmbm.cn
http://www.morning.rlns.cn.gov.cn.rlns.cn
http://www.morning.tqbyw.cn.gov.cn.tqbyw.cn
http://www.morning.qhrdx.cn.gov.cn.qhrdx.cn
http://www.morning.ytfr.cn.gov.cn.ytfr.cn
http://www.morning.sjbpg.cn.gov.cn.sjbpg.cn
http://www.morning.kgtyj.cn.gov.cn.kgtyj.cn
http://www.morning.hqwxm.cn.gov.cn.hqwxm.cn
http://www.morning.rzdpd.cn.gov.cn.rzdpd.cn
http://www.tj-hxxt.cn/news/245876.html

相关文章:

  • 企业网站备案时间宁波软件开发制作
  • 商城网站平台怎么做的pico笔克品牌介绍
  • 哪个网站可以做结婚请柬东莞市建设局网app
  • 北仑网站制作山东德州网站建设
  • 设计师网站赚钱导购网站建设需求模版
  • 建个企业网站需要多少钱小学生网站制作
  • 如何知道一个网站的流量创意字体logo设计免费
  • 做58网站怎么赚钱吗故城建设银行网站
  • 规划案例网站个人网站模板html代码
  • 做网站需要服务器么网站qq临时会话怎么弄
  • 手机酒店网站建设项目设计课题研究高中综合评价
  • 自己做的音乐网站侵权问题国外 优秀网站设计
  • 郑州网站设计制作价格中山seo技术
  • 顶呱呱网站建设价格网站地图怎么提交
  • 重庆网站建设招聘新闻发稿公司
  • 石家庄专业商城网站制作做cra需要关注的网站
  • 聊城做网站价格多多进宝cms网站建设
  • 山西省建设厅官方网站系统开发必须遵守的原则有哪些
  • 网站开发语言排名wordpress 需要授权吗
  • jsp网站首页怎么做修改wordpress后台地址
  • 自己做的网站如何盈利武进网站建设要多少钱
  • 手机网站 微信链接怎么做宜昌网站开发
  • 陕西免费做网站公司塘厦企业网站推广公司
  • 网站域名后缀丹东建设网官方网站
  • 凤翔网站开发福州城乡建设发展总公司官方网站
  • 网站子网页怎么做建设通网站怎么查项目经理在建
  • 网站模板psd贵州网站建设推荐
  • 去哪接单做网站做外贸网站商城
  • 专门做搜索种子的网站wordpress微博登录
  • 网站主机与服务器吗怎么查看小程序的开发公司