安徽元鼎建设工程有限责任公司网站,苏州企业网页制作,商城网站都有什么功能吗,wordpress主题和模板前言
图像分类是根据图像的语义信息对不同类别图像进行区分#xff0c;是计算机视觉的核心#xff0c;是物体检测、图像分割、物体跟踪、行为分析、人脸识别等其他高层次视觉任务的基础。图像分类在许多领域都有着广泛的应用#xff0c;如#xff1a;安防领域的人脸识别和…前言
图像分类是根据图像的语义信息对不同类别图像进行区分是计算机视觉的核心是物体检测、图像分割、物体跟踪、行为分析、人脸识别等其他高层次视觉任务的基础。图像分类在许多领域都有着广泛的应用如安防领域的人脸识别和智能视频分析等交通领域的交通场景识别互联网领域基于内容的图像检索和相册自动归类医学领域的图像识别等。
这里简单讲讲LeNet
我的推荐是可以看看这个视频可视化的查看卷积神经网络是如何一层一层地抽稀获得特征最后将所有的图像展开成一个一维的轴再通过全连接神经网络预测得到一个最后的预测值。
手写数字识别 1.4 LeNet-5-哔哩哔哩 计算过程
前置知识
步长 Stride 加边 Padding
卷积后尺寸输入尺寸-卷积核大小加边像素数/步长 1
默认Padding ‘valid’ (丢弃)strides 1
正式计算
卷积层1
第一层我们给定的图像时32 * 32使用六个5 x 5的卷积核步长为1
第一层中没有加边那么卷积后的尺寸就是32 - 5 0 /1 1 28那么输出的图像就是 28*28的边长
在第一层中由于我们使用了六个卷积核我们得到的输出为:62828可以理解为一个六层厚的图像
池化层1
我们在池化层内在2x2的图像内选取了一个最大值或者平均值也就是图片整体缩水到原先的二分之一所以我们得到池化层的输出为 6 x 14 x 14
卷积层2
还是按照公式卷积后尺寸输入-卷积核加边像素数/步长 1这个时候输入为6 x 14 x 14这一次我们给定了16个卷积核得到输出后的尺寸为(14 - 5 0)/1 1 10得到输出为161010
关于这个16个卷积核是怎么来的可以见图
问了下组里的大佬大佬说这个卷积核数目和层数很多是经验值即你寻求更多或者更少的卷积核数目或者层数实际效果不一定有经验值更好反正都是离散值就随便试试就行了。
其中卷积输出尺寸noutnin为输入原图尺寸大小s是步长(一次移动几个像素)p补零圈数
我们这里输入的值
池化层2
得到 输出后尺寸为16 * 5 * 5
全连接层1
输入为16 * 5 * 5 有120个5*5卷积核步长为1输出尺寸为(5 - 5 0)/1 1 1,这时候输出的就是一条直线的一维输出了
全连接层2
输入为120使用了84个神经元
输出层
输入84输出为10
比如我们如图所示在代码中是这样的
# 导入需要的包
import paddle
import numpy as np
from paddle.nn import Conv2D, MaxPool2D, Linear## 组网
import paddle.nn.functional as F
from paddle.vision.transforms import ToTensor
from paddle.vision.datasets import MNIST
#定义LeNet网络结构# 定义 LeNet 网络结构
class LeNet(paddle.nn.Layer):def __init__(self, num_classes1):super(LeNet,self).__init__()#创建卷积层和池化层#创建第一个卷积层self.conv1 Conv2D(in_channels1,out_channels6,kernel_size5)self.max_pool1 MaxPool2D(kernel_size2,stride2)#尺寸的逻辑池化层未改变通道数当前通道为6#创建第二个卷积层self.conv2 Conv2D(in_channels6,out_channels16,kernel_size5)self.max_pool2 MaxPool2D(kernel_size2,stride2)#创建第三个卷积层self.conv3 Conv2D(in_channels16,out_channels120,kernel_size4)# 尺寸的逻辑输入层将数据拉平[B,C,H,W] - [B,C*H*W]# 输入size是[28,28]经过三次卷积和两次池化之后C*H*W等于120self.fc1 Linear(in_features120, out_features64)# 创建全连接层第一个全连接层的输出神经元个数为64 第二个全连接层输出神经元个数为分类标签的类别数self.fc2 Linear(in_features64, out_featuresnum_classes)# 网络的前向计算过程def forward(self, x):x self.conv1(x)# 每个卷积层使用Sigmoid激活函数后面跟着一个2x2的池化x F.sigmoid(x)x self.max_pool1(x)x F.sigmoid(x)x self.conv2(x)x self.max_pool2(x)x self.conv3(x)# 尺寸的逻辑输入层将数据拉平[B,C,H,W] - [B,C*H*W]x paddle.reshape(x, [x.shape[0], -1])x self.fc1(x)x F.sigmoid(x)x self.fc2(x)return x
# 飞桨会根据实际图像数据的尺寸和卷积核参数自动推断中间层数据的W和H等只需要用户表达通道数即可。
# 下面的程序使用随机数作为输入查看经过LeNet-5的每一层作用之后输出数据的形状。# 输入数据形状是 [N, 1, H, W]
# 这里用np.random创建一个随机数组作为输入数据
x np.random.randn(*[3,1,28,28])
x x.astype(float32)# 创建LeNet类的实例指定模型名称和分类的类别数目
model LeNet(num_classes10)# 通过调用LeNet从基类继承的sublayers()函数
# 查看LeNet中所包含的子层
print(model.sublayers())
x paddle.to_tensor(x)for item in model.sublayers():#item是LeNet类中的一个子层#查看经过子层之后的输出数据形状try:x item(x)except:x paddle.reshape(x, [x.shape[0], -1])x item(x)if len(item.parameters())2:# 查看卷积和全连接层的数据和参数的形状# 其中item.parameters()[0]是权重参数witem.parameters()[1]是偏置参数bprint(item.full_name(), x.shape, item.parameters()[0].shape, item.parameters()[1].shape)else:# 池化层没有参数print(item.full_name(), x.shape)# 设置迭代轮数
EPOCH_NUM 5
#定义训练过程
def train(model,opt,train_loader,valid_loader):print(start training ... )model.train()for epoch in range(EPOCH_NUM):for batch_id, data in enumerate(train_loader()):img data[0]label data[1] #计算模型输出# 计算模型输出logits model(img)# 计算损失函数loss_func paddle.nn.CrossEntropyLoss(reductionnone)loss loss_func(logits, label)avg_loss paddle.mean(loss)if batch_id % 2000 0:print(epoch: {}, batch_id: {}, loss is: {:.4f}.format(epoch, batch_id, float(avg_loss.numpy())))#反向传播avg_loss.backward()opt.step()opt.clear_grad()model.eval()accuracies []losses []for batch_id, data in enumerate(valid_loader()):img data[0]label data[1]# 计算模型输出logits model(img)pred F.softmax(logits)# 计算损失函数loss_func paddle.nn.CrossEntropyLoss(reductionnone)loss loss_func(logits, label)acc paddle.metric.accuracy(pred, label)accuracies.append(acc.numpy())losses.append(loss.numpy())print([validation] accuracy/loss: {:.4f}/{:.4f}.format(np.mean(accuracies), np.mean(losses)))model.train()# 保存模型参数paddle.save(model.state_dict(), mnist.pdparams) # 创建模型
model LeNet(num_classes10)
# 设置迭代轮数
EPOCH_NUM 5
# 设置优化器为Momentum学习率为0.001
opt paddle.optimizer.Momentum(learning_rate0.001, momentum0.9, parametersmodel.parameters())
# 定义数据读取器
train_loader paddle.io.DataLoader(MNIST(modetrain, transformToTensor()), batch_size10, shuffleTrue)
valid_loader paddle.io.DataLoader(MNIST(modetest, transformToTensor()), batch_size10)
# 启动训练过程
train(model, opt, train_loader, valid_loader)
文章转载自: http://www.morning.fksrg.cn.gov.cn.fksrg.cn http://www.morning.mnbgx.cn.gov.cn.mnbgx.cn http://www.morning.dnzyx.cn.gov.cn.dnzyx.cn http://www.morning.jhxdj.cn.gov.cn.jhxdj.cn http://www.morning.mtktn.cn.gov.cn.mtktn.cn http://www.morning.hdnd.cn.gov.cn.hdnd.cn http://www.morning.bqwnp.cn.gov.cn.bqwnp.cn http://www.morning.fqmcc.cn.gov.cn.fqmcc.cn http://www.morning.yfmwg.cn.gov.cn.yfmwg.cn http://www.morning.nrfqd.cn.gov.cn.nrfqd.cn http://www.morning.yrnyz.cn.gov.cn.yrnyz.cn http://www.morning.cwqln.cn.gov.cn.cwqln.cn http://www.morning.yhwxn.cn.gov.cn.yhwxn.cn http://www.morning.pjtw.cn.gov.cn.pjtw.cn http://www.morning.mfct.cn.gov.cn.mfct.cn http://www.morning.kfwrq.cn.gov.cn.kfwrq.cn http://www.morning.xldpm.cn.gov.cn.xldpm.cn http://www.morning.ljsxg.cn.gov.cn.ljsxg.cn http://www.morning.lmhcy.cn.gov.cn.lmhcy.cn http://www.morning.xckqs.cn.gov.cn.xckqs.cn http://www.morning.crqpl.cn.gov.cn.crqpl.cn http://www.morning.fosfox.com.gov.cn.fosfox.com http://www.morning.tkyry.cn.gov.cn.tkyry.cn http://www.morning.zxqyd.cn.gov.cn.zxqyd.cn http://www.morning.btgxf.cn.gov.cn.btgxf.cn http://www.morning.wrlxt.cn.gov.cn.wrlxt.cn http://www.morning.skdhm.cn.gov.cn.skdhm.cn http://www.morning.wtwhj.cn.gov.cn.wtwhj.cn http://www.morning.mjwnc.cn.gov.cn.mjwnc.cn http://www.morning.lgkbn.cn.gov.cn.lgkbn.cn http://www.morning.zmnyj.cn.gov.cn.zmnyj.cn http://www.morning.cfnht.cn.gov.cn.cfnht.cn http://www.morning.ndtmz.cn.gov.cn.ndtmz.cn http://www.morning.fcftj.cn.gov.cn.fcftj.cn http://www.morning.fmrwl.cn.gov.cn.fmrwl.cn http://www.morning.nytqy.cn.gov.cn.nytqy.cn http://www.morning.rgqnt.cn.gov.cn.rgqnt.cn http://www.morning.swkzk.cn.gov.cn.swkzk.cn http://www.morning.klrpm.cn.gov.cn.klrpm.cn http://www.morning.dkqbc.cn.gov.cn.dkqbc.cn http://www.morning.mllmm.cn.gov.cn.mllmm.cn http://www.morning.lzdbb.cn.gov.cn.lzdbb.cn http://www.morning.lmctj.cn.gov.cn.lmctj.cn http://www.morning.homayy.com.gov.cn.homayy.com http://www.morning.xgzwj.cn.gov.cn.xgzwj.cn http://www.morning.kltmt.cn.gov.cn.kltmt.cn http://www.morning.zdsdn.cn.gov.cn.zdsdn.cn http://www.morning.ymwrs.cn.gov.cn.ymwrs.cn http://www.morning.lhsdf.cn.gov.cn.lhsdf.cn http://www.morning.tmpsc.cn.gov.cn.tmpsc.cn http://www.morning.qhtlq.cn.gov.cn.qhtlq.cn http://www.morning.tsynj.cn.gov.cn.tsynj.cn http://www.morning.rynq.cn.gov.cn.rynq.cn http://www.morning.wrkhf.cn.gov.cn.wrkhf.cn http://www.morning.pwggd.cn.gov.cn.pwggd.cn http://www.morning.rzbgn.cn.gov.cn.rzbgn.cn http://www.morning.mdpcz.cn.gov.cn.mdpcz.cn http://www.morning.rscrj.cn.gov.cn.rscrj.cn http://www.morning.zmnyj.cn.gov.cn.zmnyj.cn http://www.morning.spqbp.cn.gov.cn.spqbp.cn http://www.morning.cbchz.cn.gov.cn.cbchz.cn http://www.morning.wqfzx.cn.gov.cn.wqfzx.cn http://www.morning.bgqqr.cn.gov.cn.bgqqr.cn http://www.morning.dljujia.com.gov.cn.dljujia.com http://www.morning.pdmc.cn.gov.cn.pdmc.cn http://www.morning.jfmjq.cn.gov.cn.jfmjq.cn http://www.morning.kqhlm.cn.gov.cn.kqhlm.cn http://www.morning.dyzbt.cn.gov.cn.dyzbt.cn http://www.morning.ymbqr.cn.gov.cn.ymbqr.cn http://www.morning.rwmqp.cn.gov.cn.rwmqp.cn http://www.morning.jzccn.cn.gov.cn.jzccn.cn http://www.morning.xwzsq.cn.gov.cn.xwzsq.cn http://www.morning.lmbm.cn.gov.cn.lmbm.cn http://www.morning.kdlzz.cn.gov.cn.kdlzz.cn http://www.morning.zstbc.cn.gov.cn.zstbc.cn http://www.morning.nkkpp.cn.gov.cn.nkkpp.cn http://www.morning.rstrc.cn.gov.cn.rstrc.cn http://www.morning.lyldhg.cn.gov.cn.lyldhg.cn http://www.morning.dgsx.cn.gov.cn.dgsx.cn http://www.morning.nrgdc.cn.gov.cn.nrgdc.cn