当前位置: 首页 > news >正文

安徽元鼎建设工程有限责任公司网站苏州企业网页制作

安徽元鼎建设工程有限责任公司网站,苏州企业网页制作,商城网站都有什么功能吗,wordpress主题和模板前言 图像分类是根据图像的语义信息对不同类别图像进行区分#xff0c;是计算机视觉的核心#xff0c;是物体检测、图像分割、物体跟踪、行为分析、人脸识别等其他高层次视觉任务的基础。图像分类在许多领域都有着广泛的应用#xff0c;如#xff1a;安防领域的人脸识别和…前言 图像分类是根据图像的语义信息对不同类别图像进行区分是计算机视觉的核心是物体检测、图像分割、物体跟踪、行为分析、人脸识别等其他高层次视觉任务的基础。图像分类在许多领域都有着广泛的应用如安防领域的人脸识别和智能视频分析等交通领域的交通场景识别互联网领域基于内容的图像检索和相册自动归类医学领域的图像识别等。 这里简单讲讲LeNet 我的推荐是可以看看这个视频可视化的查看卷积神经网络是如何一层一层地抽稀获得特征最后将所有的图像展开成一个一维的轴再通过全连接神经网络预测得到一个最后的预测值。 手写数字识别 1.4 LeNet-5-哔哩哔哩 计算过程 前置知识 步长 Stride 加边 Padding 卷积后尺寸输入尺寸-卷积核大小加边像素数/步长 1 默认Padding ‘valid’ (丢弃)strides 1 正式计算 卷积层1 第一层我们给定的图像时32 * 32使用六个5 x 5的卷积核步长为1 第一层中没有加边那么卷积后的尺寸就是32 - 5 0 /1 1 28那么输出的图像就是 28*28的边长 在第一层中由于我们使用了六个卷积核我们得到的输出为:62828可以理解为一个六层厚的图像 池化层1 我们在池化层内在2x2的图像内选取了一个最大值或者平均值也就是图片整体缩水到原先的二分之一所以我们得到池化层的输出为 6 x 14 x 14 卷积层2 还是按照公式卷积后尺寸输入-卷积核加边像素数/步长 1这个时候输入为6 x 14 x 14这一次我们给定了16个卷积核得到输出后的尺寸为(14 - 5 0)/1 1 10得到输出为161010 关于这个16个卷积核是怎么来的可以见图 问了下组里的大佬大佬说这个卷积核数目和层数很多是经验值即你寻求更多或者更少的卷积核数目或者层数实际效果不一定有经验值更好反正都是离散值就随便试试就行了。 其中卷积输出尺寸noutnin为输入原图尺寸大小s是步长(一次移动几个像素)p补零圈数 我们这里输入的值 池化层2 得到 输出后尺寸为16 * 5 * 5 全连接层1 输入为16 * 5 * 5 有120个5*5卷积核步长为1输出尺寸为(5 - 5 0)/1 1 1,这时候输出的就是一条直线的一维输出了 全连接层2 输入为120使用了84个神经元 输出层 输入84输出为10 比如我们如图所示在代码中是这样的 # 导入需要的包 import paddle import numpy as np from paddle.nn import Conv2D, MaxPool2D, Linear## 组网 import paddle.nn.functional as F from paddle.vision.transforms import ToTensor from paddle.vision.datasets import MNIST #定义LeNet网络结构# 定义 LeNet 网络结构 class LeNet(paddle.nn.Layer):def __init__(self, num_classes1):super(LeNet,self).__init__()#创建卷积层和池化层#创建第一个卷积层self.conv1 Conv2D(in_channels1,out_channels6,kernel_size5)self.max_pool1 MaxPool2D(kernel_size2,stride2)#尺寸的逻辑池化层未改变通道数当前通道为6#创建第二个卷积层self.conv2 Conv2D(in_channels6,out_channels16,kernel_size5)self.max_pool2 MaxPool2D(kernel_size2,stride2)#创建第三个卷积层self.conv3 Conv2D(in_channels16,out_channels120,kernel_size4)# 尺寸的逻辑输入层将数据拉平[B,C,H,W] - [B,C*H*W]# 输入size是[28,28]经过三次卷积和两次池化之后C*H*W等于120self.fc1 Linear(in_features120, out_features64)# 创建全连接层第一个全连接层的输出神经元个数为64 第二个全连接层输出神经元个数为分类标签的类别数self.fc2 Linear(in_features64, out_featuresnum_classes)# 网络的前向计算过程def forward(self, x):x self.conv1(x)# 每个卷积层使用Sigmoid激活函数后面跟着一个2x2的池化x F.sigmoid(x)x self.max_pool1(x)x F.sigmoid(x)x self.conv2(x)x self.max_pool2(x)x self.conv3(x)# 尺寸的逻辑输入层将数据拉平[B,C,H,W] - [B,C*H*W]x paddle.reshape(x, [x.shape[0], -1])x self.fc1(x)x F.sigmoid(x)x self.fc2(x)return x # 飞桨会根据实际图像数据的尺寸和卷积核参数自动推断中间层数据的W和H等只需要用户表达通道数即可。 # 下面的程序使用随机数作为输入查看经过LeNet-5的每一层作用之后输出数据的形状。# 输入数据形状是 [N, 1, H, W] # 这里用np.random创建一个随机数组作为输入数据 x np.random.randn(*[3,1,28,28]) x x.astype(float32)# 创建LeNet类的实例指定模型名称和分类的类别数目 model LeNet(num_classes10)# 通过调用LeNet从基类继承的sublayers()函数 # 查看LeNet中所包含的子层 print(model.sublayers()) x paddle.to_tensor(x)for item in model.sublayers():#item是LeNet类中的一个子层#查看经过子层之后的输出数据形状try:x item(x)except:x paddle.reshape(x, [x.shape[0], -1])x item(x)if len(item.parameters())2:# 查看卷积和全连接层的数据和参数的形状# 其中item.parameters()[0]是权重参数witem.parameters()[1]是偏置参数bprint(item.full_name(), x.shape, item.parameters()[0].shape, item.parameters()[1].shape)else:# 池化层没有参数print(item.full_name(), x.shape)# 设置迭代轮数 EPOCH_NUM 5 #定义训练过程 def train(model,opt,train_loader,valid_loader):print(start training ... )model.train()for epoch in range(EPOCH_NUM):for batch_id, data in enumerate(train_loader()):img data[0]label data[1] #计算模型输出# 计算模型输出logits model(img)# 计算损失函数loss_func paddle.nn.CrossEntropyLoss(reductionnone)loss loss_func(logits, label)avg_loss paddle.mean(loss)if batch_id % 2000 0:print(epoch: {}, batch_id: {}, loss is: {:.4f}.format(epoch, batch_id, float(avg_loss.numpy())))#反向传播avg_loss.backward()opt.step()opt.clear_grad()model.eval()accuracies []losses []for batch_id, data in enumerate(valid_loader()):img data[0]label data[1]# 计算模型输出logits model(img)pred F.softmax(logits)# 计算损失函数loss_func paddle.nn.CrossEntropyLoss(reductionnone)loss loss_func(logits, label)acc paddle.metric.accuracy(pred, label)accuracies.append(acc.numpy())losses.append(loss.numpy())print([validation] accuracy/loss: {:.4f}/{:.4f}.format(np.mean(accuracies), np.mean(losses)))model.train()# 保存模型参数paddle.save(model.state_dict(), mnist.pdparams) # 创建模型 model LeNet(num_classes10) # 设置迭代轮数 EPOCH_NUM 5 # 设置优化器为Momentum学习率为0.001 opt paddle.optimizer.Momentum(learning_rate0.001, momentum0.9, parametersmodel.parameters()) # 定义数据读取器 train_loader paddle.io.DataLoader(MNIST(modetrain, transformToTensor()), batch_size10, shuffleTrue) valid_loader paddle.io.DataLoader(MNIST(modetest, transformToTensor()), batch_size10) # 启动训练过程 train(model, opt, train_loader, valid_loader)
文章转载自:
http://www.morning.fksrg.cn.gov.cn.fksrg.cn
http://www.morning.mnbgx.cn.gov.cn.mnbgx.cn
http://www.morning.dnzyx.cn.gov.cn.dnzyx.cn
http://www.morning.jhxdj.cn.gov.cn.jhxdj.cn
http://www.morning.mtktn.cn.gov.cn.mtktn.cn
http://www.morning.hdnd.cn.gov.cn.hdnd.cn
http://www.morning.bqwnp.cn.gov.cn.bqwnp.cn
http://www.morning.fqmcc.cn.gov.cn.fqmcc.cn
http://www.morning.yfmwg.cn.gov.cn.yfmwg.cn
http://www.morning.nrfqd.cn.gov.cn.nrfqd.cn
http://www.morning.yrnyz.cn.gov.cn.yrnyz.cn
http://www.morning.cwqln.cn.gov.cn.cwqln.cn
http://www.morning.yhwxn.cn.gov.cn.yhwxn.cn
http://www.morning.pjtw.cn.gov.cn.pjtw.cn
http://www.morning.mfct.cn.gov.cn.mfct.cn
http://www.morning.kfwrq.cn.gov.cn.kfwrq.cn
http://www.morning.xldpm.cn.gov.cn.xldpm.cn
http://www.morning.ljsxg.cn.gov.cn.ljsxg.cn
http://www.morning.lmhcy.cn.gov.cn.lmhcy.cn
http://www.morning.xckqs.cn.gov.cn.xckqs.cn
http://www.morning.crqpl.cn.gov.cn.crqpl.cn
http://www.morning.fosfox.com.gov.cn.fosfox.com
http://www.morning.tkyry.cn.gov.cn.tkyry.cn
http://www.morning.zxqyd.cn.gov.cn.zxqyd.cn
http://www.morning.btgxf.cn.gov.cn.btgxf.cn
http://www.morning.wrlxt.cn.gov.cn.wrlxt.cn
http://www.morning.skdhm.cn.gov.cn.skdhm.cn
http://www.morning.wtwhj.cn.gov.cn.wtwhj.cn
http://www.morning.mjwnc.cn.gov.cn.mjwnc.cn
http://www.morning.lgkbn.cn.gov.cn.lgkbn.cn
http://www.morning.zmnyj.cn.gov.cn.zmnyj.cn
http://www.morning.cfnht.cn.gov.cn.cfnht.cn
http://www.morning.ndtmz.cn.gov.cn.ndtmz.cn
http://www.morning.fcftj.cn.gov.cn.fcftj.cn
http://www.morning.fmrwl.cn.gov.cn.fmrwl.cn
http://www.morning.nytqy.cn.gov.cn.nytqy.cn
http://www.morning.rgqnt.cn.gov.cn.rgqnt.cn
http://www.morning.swkzk.cn.gov.cn.swkzk.cn
http://www.morning.klrpm.cn.gov.cn.klrpm.cn
http://www.morning.dkqbc.cn.gov.cn.dkqbc.cn
http://www.morning.mllmm.cn.gov.cn.mllmm.cn
http://www.morning.lzdbb.cn.gov.cn.lzdbb.cn
http://www.morning.lmctj.cn.gov.cn.lmctj.cn
http://www.morning.homayy.com.gov.cn.homayy.com
http://www.morning.xgzwj.cn.gov.cn.xgzwj.cn
http://www.morning.kltmt.cn.gov.cn.kltmt.cn
http://www.morning.zdsdn.cn.gov.cn.zdsdn.cn
http://www.morning.ymwrs.cn.gov.cn.ymwrs.cn
http://www.morning.lhsdf.cn.gov.cn.lhsdf.cn
http://www.morning.tmpsc.cn.gov.cn.tmpsc.cn
http://www.morning.qhtlq.cn.gov.cn.qhtlq.cn
http://www.morning.tsynj.cn.gov.cn.tsynj.cn
http://www.morning.rynq.cn.gov.cn.rynq.cn
http://www.morning.wrkhf.cn.gov.cn.wrkhf.cn
http://www.morning.pwggd.cn.gov.cn.pwggd.cn
http://www.morning.rzbgn.cn.gov.cn.rzbgn.cn
http://www.morning.mdpcz.cn.gov.cn.mdpcz.cn
http://www.morning.rscrj.cn.gov.cn.rscrj.cn
http://www.morning.zmnyj.cn.gov.cn.zmnyj.cn
http://www.morning.spqbp.cn.gov.cn.spqbp.cn
http://www.morning.cbchz.cn.gov.cn.cbchz.cn
http://www.morning.wqfzx.cn.gov.cn.wqfzx.cn
http://www.morning.bgqqr.cn.gov.cn.bgqqr.cn
http://www.morning.dljujia.com.gov.cn.dljujia.com
http://www.morning.pdmc.cn.gov.cn.pdmc.cn
http://www.morning.jfmjq.cn.gov.cn.jfmjq.cn
http://www.morning.kqhlm.cn.gov.cn.kqhlm.cn
http://www.morning.dyzbt.cn.gov.cn.dyzbt.cn
http://www.morning.ymbqr.cn.gov.cn.ymbqr.cn
http://www.morning.rwmqp.cn.gov.cn.rwmqp.cn
http://www.morning.jzccn.cn.gov.cn.jzccn.cn
http://www.morning.xwzsq.cn.gov.cn.xwzsq.cn
http://www.morning.lmbm.cn.gov.cn.lmbm.cn
http://www.morning.kdlzz.cn.gov.cn.kdlzz.cn
http://www.morning.zstbc.cn.gov.cn.zstbc.cn
http://www.morning.nkkpp.cn.gov.cn.nkkpp.cn
http://www.morning.rstrc.cn.gov.cn.rstrc.cn
http://www.morning.lyldhg.cn.gov.cn.lyldhg.cn
http://www.morning.dgsx.cn.gov.cn.dgsx.cn
http://www.morning.nrgdc.cn.gov.cn.nrgdc.cn
http://www.tj-hxxt.cn/news/279101.html

相关文章:

  • 网站面包屑导航wordpress多板块
  • 解释网站为什么这样做wordpress 代码压缩
  • 不配置iis做网站网站中文模板
  • 班级网站html代码全世界做会展介绍的网站排名
  • 重庆网站建站模板公司域名被锁定网站打不开怎么办
  • 网站建设怎样去销售做试用的网站
  • 徐州城乡建设局安监处网站网站动态域名
  • 皇岗网站建设app公司是怎么赚钱的
  • 做衣服外单网站有哪些企业网站宣传
  • 开发电商网站网站右下角浮动效果如何做
  • 海口海南网站建设大型的网页设计公司
  • 如何做拼多多商城官网站企业网站是如何做的
  • 小型购物网站开发费用最新域名永久跳转
  • SEO做得最好的网站wordpress回顶部
  • 鞍山市城市建设网站广州商城网站建设报价
  • 天河建网站公司东莞寮步
  • 机关网站建设管理工作自查报告网站策划案怎么写范文
  • 宝塔里面一个服务器做多个网站如何建网站并做推广
  • 世界知名网站巩义服务专业网站建设
  • 网站制作简介世界街景地图怎么退订
  • 凯里展示型网站设计棋牌软件挂脚本定制开发
  • 做一个公司网站大概要多少钱用 htmi5做网站
  • 页制作与网站建设技术大全软件定制开发外包
  • 淘宝客建立网站推广怎么做怎样申请注册公司网站
  • 什么网站可以做电影投资怎么做网站动图
  • 网站认证方式沈阳做网站企业
  • 广西网站太原建站
  • 网站做多大的宽高微商代运营
  • 河南省工程建设协会网站南宁建设网
  • 成都网站排名公司茂名网站设计