当前位置: 首页 > news >正文

营销网站开发isuos营销策划公司有哪些职位

营销网站开发isuos,营销策划公司有哪些职位,百度收录入口提交,兰州做网站优化的公司一、环境搭建 链接: python与深度学习——基础环境搭建 二、数据集准备 本次实验用的是MINIST数据集#xff0c;利用MINIST数据集进行卷积神经网络的学习#xff0c;就类似于学习单片机的点灯实验#xff0c;学习一门机器语言输出hello world。MINIST数据集#xff0c;可以…一、环境搭建 链接: python与深度学习——基础环境搭建 二、数据集准备 本次实验用的是MINIST数据集利用MINIST数据集进行卷积神经网络的学习就类似于学习单片机的点灯实验学习一门机器语言输出hello world。MINIST数据集可以调用torchvision里面的模块进行下载。 三、导入模块. 1.导入模块的代码 import torch import torchvision from torch.utils.data import DataLoader import matplotlib.pyplot as plt import torch.nn as nn import torch.nn.functional as F import torch.optim as optim2.每个模块的作用 torch导入pytorch的库 torchvision导入torchvision,它PyTorch中的一个库它提供了一些计算机视觉任务的工具和预训练模型。 from torch.utils.data import DataLoader关于DataLoader从PyTorch的torch.utils.data模块中导入DataLoader类。DataLoader类是PyTorch中用于数据加载的实用工具它提供了对数据集的批量加载和并行处理的功能。通过使用DataLoader可以方便地将数据集划分为小批量batch进行训练 同时还可以利用多线程进行数据加载和预处理以加快训练过程。 matplotlib .pyplot主要适用于绘图待会我们会用它查看数据集里面的图片以及绘制训练损失和测试损失的曲线。 import torch.nn as nn import torch.nn.functional as F import torch.optim as optim 导入torch中的一些模块用于构建神经和优化网络的参数。 四、设置卷积神经网络的超参数 这些超参数都是全局变量调整超参数也是优化神经网络的一个重要的手段 n_epochs 3epoch的数量定义了循环整个数据集的次数。也就是训练和测试的次数。 batch_size_train 64 batch_size_test 1000这里是批处理批处理的好处是可以大幅缩短每张图像的处理时间。batch_size表示批量大小指每次模型更新时所使用的样本数。其中较大的批量大小可以提高训练速度但可能降低模型的泛化能力较小的批量大小可能导致训练过程更加噪声并且需要更多的训练迭代次数。这里我们用batch_size64进行训练利用batch_size1000进行测试。 learning_rata 0.01learning_rate表示学习率。用于控制每次参数更新的步长。较小的学习率可以使训练更稳定但可能需要更多的训练迭代次数较大的学习率可能导致训练不稳定或无法收敛。 momentum 0.5动量是一种在优化算法中使用的技术用于加速梯度下降的收敛过程。它通过在更新时引入之前的更新方向帮助模型跳出局部极小值。 log_interval 10这行代码将日志间隔log interval设置为10。在训练过程中每隔10个批次batch将打印一次训练日志用于跟踪训练的进度和性能。 random_seed 1 torch.manual_seed(random_seed)将随机种子random seed设置为1并将其应用于PyTorch的随机数生成器。通过设置随机种子可以使得每次运行代码时的随机过程可复现即获得相同的随机结果。这在实验和调试中很有用可以确保实验结果的一致性。 设置超参数部分的完整代码 n_epochs 3 batch_size_train 64 batch_size_test 1000 learning_rate 0.01 momentum 0.5 log_interval 10 random_seed 1 torch.manual_seed(random_seed)五、加载训练数据集和测试数据集 train_loader torch.utils.data.DataLoadertorch.utils.data.DataLoader是PyTorch提供的用于数据加载的实用工具。 torchvision.datasets.MNIST(./data/, trainFalse, downloadTrue, torchvision.datasets.MNIST是用来加载MNIST数据集的函数其中trainTrue表示加载训练集downloadTrue表示如果数据集不存在时会从互联网上下载。 transformtorchvision.transforms.Compose([torchvision.transforms.ToTensor(),torchvision.transforms.Normalize((0.1307,), (0.3081,))])),transformtorchvision.transforms.Compose([…])定义了一系列的数据转换操作用于对数据进行预处理。torchvision.transforms.ToTensor()将数据转换为Tensor对象将图像数据从PIL Image对象转换为Tensor对象。 torchvision.transforms.Normalize((0.1307,), (0.3081,))对图像数据进行归一化处理使其均值为0.1307标准差为0.3081。这是针对MNIST数据集的归一化处理目的是将数据转换为均值为0、方差为1的分布。 batch_sizebatch_size_train,shuffleTrue规定了每个批次加载的数量shuffleTrue表示要对数据进行随机洗牌在每个周期中随机选择样本 上述代码是加载训练数据集完整代码如下。 train_loader torch.utils.data.DataLoader(torchvision.datasets.MNIST(./data/, trainTrue, downloadTrue,transformtorchvision.transforms.Compose([torchvision.transforms.ToTensor(),torchvision.transforms.Normalize((0.1307,), (0.3081,))])),batch_sizebatch_size_train, shuffleTrue)加载测试数据集的方式和加载训练数据集的方式一样不同的是要把trainTrue改为trainFalse 加载测试数据集的代码如下 test_loader torch.utils.data.DataLoader(torchvision.datasets.MNIST(./data/, trainFalse, downloadTrue,transformtorchvision.transforms.Compose([torchvision.transforms.ToTensor(),torchvision.transforms.Normalize((0.1307,), (0.3081,))])),batch_sizebatch_size_test, shuffleTrue)六、查看数据确定数据的维度 所谓数据的维度就是数据的数量通道数高度和宽度等信息。 examples enumerate(test_loader)使用enumerate函数对test_loader进行枚举返回一个枚举对象examples。枚举对象可以用于迭代加载test_loader中的批次数据。 batch_idx, (example_data, example_targets) next(examples)通过next函数从examples枚举对象中获取下一个批次的数据。batch_idx表示批次的索引(example_data, example_targets)表示批次中的示例数据和对应的标签。 print(example_targets)打印出示例数据的标签,就是图片实际对应的数字标签。 这里的example_targets是一个张量包含了当前批次中每个样本的标签。 print(example_data.shape)打印出示例数据的形状example_data是一个张量表示当前批次中每个样本的图像数据通过shape属性可以查看数据的维度信息如通道数、高度和宽度。 以上代码的功能是查看部分测试数据并查看示例数据的标签和查看示例数据的形状这部分的完整代码如下。 examples enumerate(test_loader) batch_idx, (example_data, example_targets) next(examples) print(example_targets) print(example_data.shape)运行结果 这里显示示例数据的尺寸是torch.Size([1000, 1, 28, 28]),表示的是1000张测试数据黑白图像通道为1像素为28*28。 七、查看示例数据 这里我们要用到之前导入的matplotlib.pyplot模块。这里有点类似于MATLAB的绘图 fig plt.figure()创建一个新的图形对象。 for i in range(6):循环6次用于遍历6个子图的位置。 plt.subplot(2,3,i1)在图形中创建一个2行3列的子图并选择第i 1个子图位置。 plt.tight_layout()调整子图的布局使其更加紧凑 plt.imshow(example_data[i][0], cmapgray, interpolationnone)使用imshow函数显示第i个示例数据的图像。example_data[i][0]表示第i个示例数据的图像张量cmap ‘gray’表示使用灰度颜色映射interpolation ‘none’ 表示不使用插值来显示图像。 plt.title(Ground Truth:{}.format(example_targets[i]))设置当前子图的标题包括示例数据的标签信息。 plt.xticks([])plt.yticks([])隐藏子图的横纵刻度标签。 plt.show()进行图形的绘制。 此部分的完整代码为 fig plt.figure() for i in range(6):plt.subplot(2, 3, i 1)plt.tight_layout()plt.imshow(example_data[i][0], cmapgray, interpolationnone)plt.title(Ground Truth: {}.format(example_targets[i]))plt.xticks([])plt.yticks([]) plt.show()运行结果 八、构建神经网络和传播函数 现在就到了最激动人心的时刻了构建一个卷积神经网络并了解整个的流程。粗略看来我们的所构建的这个网络的结构为 两个卷积层那么对应就有两个激活函数和池化层同时还使用dropout层和全连接层。各层的作用如下。 卷积层 卷积层的主要作用是提取输入数据中的特征。卷积层通过使用一组可学习的卷积核也称为滤波器对输入数据进行卷积操作。卷积操作可以看作是一种窗口滑动的过程将卷积核与输入数据的不同位置进行逐元素相乘并求和得到输出的单个元素。通过对整个输入数据进行卷积操作卷积层可以得到一张特征图也称为卷积特征。 激活函数 我们设想一下如果使用线性函数或者是将线性函数叠加成网络那么它始终无法解决非线性的问题所以针对此问题我们引入了一些非线性函数作为激活函数为什么称之为激活函数我们拿神经细胞来举例。 如图所示神经元是由轴突和树突构成的。当轴突接收到上一个神经元传来的信号的时候树突上会产生一个动作电压那么这个歌神经元就会被激活从而向后继续传导信号。同样的有了激活函数我们深度学习中的神经元才可以被激活神经网络才能够正常工作解决实际问题。 在深度学习中常见的激活函数有sigmoid函数Relu函数softmax函数等。这里我们使用的是Relu函数。 池化层 池化层通常紧跟在卷积层之后。池化的主要作用是对特征图进行下采样减少数据的空间维度并且保留重要的特征信息。。在池化窗口内通常选择最大值Max Pooling或平均值Average Pooling作为汇总特征。这样可以过滤掉一些噪声和不重要的细节保留对分类或识别任务有用的特征。在此次实验中我们采用的是最大池化的方式池化窗口为2。 Dropout层 Dropout层是一种常用的正则化技术在深度学习中用于减少过拟合overfitting问题。它的主要作用是随机地在神经网络的训练过程中将一部分神经元的输出置为零。也就是随机删除一些神经元。Dropout层通过随机地丢弃神经元的输出可以减少过拟合、防止共适应、提高泛化能力并且降低了模型的复杂性。它是一种简单而有效的正则化技术因此在深度学习中被广泛应用。 全连接层 全连接层的作用是将前一层的所有神经元与当前层的所有神经元相连接每个连接都有一个可学习的权重。全连接层通常是神经网络最后的层用于将中间表示映射到最终的输出类别或预测值。例如在图像分类任务中全连接层将学习到的特征转换为类别的概率分布。在回归任务中全连接层可以将学习到的特征映射为连续的数值输出。 代码实现以及具体参数 class Net(nn.Module):创建神经网络的类该类的父类是nn.Module类 def __init__(self):初始化方法用于初始化网络的各个层和组件 super(Net, self).__init__()super(Net, self).init()的作用是调用父类的构造函数以便在子类的构造函数中执行父类的初始化逻辑。通过调用父类的构造函数可以确保子类在创建实例时继承并初始化父类的属性和方法。 self.conv1 nn.Conv2d(1, 10, kernel_size5)定义了一个卷积层conv1输入通道数为1输出通道数为10卷积核大小为5x5。 self.conv2 nn.Conv2d(10, 20, kernel_size5)定义了另一个卷积层conv2输入通道数为10输出通道数为20卷积核大小为5x5。 self.conv2_drop nn.Dropout2d()定义了一个二维Dropout层conv2_drop。 self.fc1 nn.Linear(320, 50)定义了一个全连接层fc1输入大小为320输出大小为50。 self.fc2 nn.Linear(50, 10)定义了另一个全连接层fc2输入大小为50输出大小为10。 def forward(self,x): Net类的前向传播函数用于定义网络的数据流向。 x F.relu(F.max_pool2d(self.conv1(x),2))对输入x进行卷积、ReLU激活和最大池化操作池化窗口大小为2每个窗口的大小为2x2。最大池化是指特征图的每个2x2的窗口内的值取最大值从而将特征图的尺寸减小一半。 x F.relu(F.max_pool2d(self.conv2_drop(self.conv2(x)),2))对第一个卷积层的输出进行卷积、Dropout、ReLU激活和最大池化操作。 x x.view(-1, 320)将张量x进行展平变为一维向量。 x F.relu(self.fc1(x))对展平后的向量进行全连接并进行ReLU激活操作。 x F.dropout(x, trainingself.training)对第一个全连接层的输出进行Dropout操作self.training用于指示当前是否处于训练模式。 x self.fc2(x)对第二个全连接层的输出进行全连接操作。 return F.log_softmax(x)对输出进行log_softmax操作用于多分类问题的概率预测。 前面一段定义了网络结构以及网络的前向传播函数总体代码如下 class Net(nn.Module):# 初始化方法用于初始化网络的各个层和组件。def __init__(self):# 继承父类的一些属性super(Net, self).__init__()# 定义了一个卷积层conv1输入通道数为1输出通道数为10卷积核大小为5x5。self.conv1 nn.Conv2d(1, 10, kernel_size5)# 定义了另一个卷积层conv2输入通道数为10输出通道数为20卷积核大小为5x5。self.conv2 nn.Conv2d(10, 20, kernel_size5)# 定义了一个二维Dropout层conv2_drop。self.conv2_drop nn.Dropout2d()# 定义了一个全连接层fc1输入大小为320输出大小为50。self.fc1 nn.Linear(320, 50)# 定义了另一个全连接层fc2输入大小为50输出大小为10。self.fc2 nn.Linear(50, 10)# Net类的前向传播函数用于定义网络的数据流向。def forward(self,x):# 对输入x进行卷积、ReLU激活和最大池化操作池化窗口大小为2每个窗口的大小为2x2# 最大池化是指特征图的每个2x2的窗口内的值取最大值从而将特征图的尺寸减小一半。x F.relu(F.max_pool2d(self.conv1(x),2))# 对第一个卷积层的输出进行卷积、Dropout、ReLU激活和最大池化操作。x F.relu(F.max_pool2d(self.conv2_drop(self.conv2(x)),2))# 将张量x进行展平变为一维向量。x x.view(-1, 320)# 对展平后的向量进行全连接、ReLU激活操作。x F.relu(self.fc1(x))# 对第一个全连接层的输出进行Dropout操作self.training用于指示当前是否处于训练模式。x F.dropout(x, trainingself.training)# 对第二个全连接层的输出进行全连接操作。x self.fc2(x)# 对输出进行log_softmax操作用于多分类问题的概率预测。return F.log_softmax(x)如上的网络结构以及数据流向如下图所示。 九、初始化网络和优化器 #实例化对象 # 创建一个Net类的实例即创建了一个神经网络对象。 network Net() # 创建一个随机梯度下降SGD优化器对象用于优化网络的参数。 # network.parameters()返回网络中的可学习参数即需要进行梯度更新的参数。 optimizer optim.SGD(network.parameters(),lrlearning_rata,momentummomentum)创建空列表记录训练以及测试过程中的损失值和步数 # 用于记录训练过程中的损失值和训练步数。 train_losses [] train_counter [] # 创建了另外两个空列表用于记录测试过程中的损失值和测试步数。 # 根据训练数据集的大小和训练周期数来确定测试步数的间隔。 test_losses [] test_counter [i*len(train_loader.dataset) for i in range(n_epochs 1)]这一块完整的代码为 # 初始化网络和优化器 #实例化对象 # 创建一个Net类的实例即创建了一个神经网络对象。 network Net() # 创建一个随机梯度下降SGD优化器对象用于优化网络的参数。 # network.parameters()返回网络中的可学习参数即需要进行梯度更新的参数。 optimizer optim.SGD(network.parameters(),lrlearning_rata,momentummomentum)# 用于记录训练过程中的损失值和训练步数。 train_losses [] train_counter [] # 创建了另外两个空列表用于记录测试过程中的损失值和测试步数。 # 根据训练数据集的大小和训练周期数来确定测试步数的间隔。 test_losses [] test_counter [i*len(train_loader.dataset) for i in range(n_epochs 1)]十、模型训练与测试 模型训练 def train(epoch):# 将神经网络模型设置为训练模式这是为了确保在训练过程中启用一些特定的操作如Dropout。network.train()将网络模型设置为训练模式 for batch_idx, (data, target) in enumerate(train_loader):# 在每个批次开始时将优化器的梯度缓冲区清零以准备计算当前批次的梯度。optimizer.zero_grad()# 通过将输入数据传递给网络模型(network)计算模型的输出output network(data)# 使用负对数似然损失函数(F.nll_loss) 计算模型输出和目标标签之间的损失loss F.nll_loss(output,target)# 根据损失值执行反向传播过程计算相对于模型参数的梯度。loss.backward()# 根据梯度更新模型的参数使用优化器(optimizer)来执行参数更新步骤。optimizer.step()读取训练集的数据计算输出并计算输出和目标之间的损失损失函数是机器学习中比较重要的一个内容其作用是衡量输出值和目标值之间的差距损失函数有很多种也可以自己定义这里我们采用的是负对数似然损失函数(F.nll_loss) 计算模型输出和目标标签之间的损失。计算完损失值之后执行反向传播过程并进行更新 为了更直观的了解训练的进度在终端进行当前训练轮数、已处理的样本数量、总样本数量的百分比以及当前批次的损失值等信息的打印。 # 如果当前批次的索引能被log_interval整除表示达到了指定的打印间隔。if batch_idx % log_interval 0:# 打印当前训练轮数、已处理的样本数量、总样本数量的百分比以及当前批次的损失值。print(Train Epoch: {} [{}/{} ({:.0f}%)]\tLoss: {: .6f}.format(epoch, batch_idx*len(data), len(train_loader.dataset),100.*batch_idx/len(train_loader), loss.item()))# append,给列表添加元素的指令# 将当前批次的损失值和对应的训练步数添加到训练损失列表(train_losses)# 和训练步数列表(train_counter)中用于后续的可视化和分析。train_losses.append(loss.item())train_counter.append((batch_idx *64) ((epoch -1) * len(train_loader.dataset)))torch.save(network.state_dict(),./model.pth)torch.save(optimizer.state_dict(),./optimizer.pth)在训练结束后要对模型参数以及优化器状态进行保存以便于之后可以接着上一次的训练结果接着训练 # 调用训练的函数次数为1 train(1)其中1就是epoch即训练轮数可以根据实际情况进行调整 测试 和上面的训练过程基本类似遍历测试集计算模型输出并且计算损失 def test():# 将神经网络模型设置为评估模式这是为了确保在评估过程中不启用一些特定的操作如Dropout。network.eval()# test_loss用于累积测试损失test_loss 0# correct用于累积预测正确的样本数量。correct 0# 使用torch.no_grad()# 上下文管理器表示在评估过程中不进行梯度计算以减少内存消耗和加快计算速度。with torch.no_grad():# 遍历测试数据集(test_loader)其中data是输入数据的批量target是对应的标签。for data, target in test_loader:# 通过将输入数据传递给网络模型(network)计算模型的输出。output network(data)# 使用负对数似然损失函数(F.nll_loss)计算模型输出和目标标签之间的损失并累积到test_loss中。test_loss test_loss F.nll_loss(output, target, size_averageFalse).item()# 获取模型输出中概率最高的类别预测即预测值。pred output.data.max(1, keepdimTrue)[1]# 计算预测值与目标标签相等的样本数量并累积到correct中correct correct pred.eq(target.data.view_as(pred)).sum()# 计算平均测试损失将累积的测试损失值除以测试数据集的样本数量。test_loss test_loss / len(test_loader.dataset)# 将平均测试损失值添加到测试损失列表(test_losses)中test_losses.append(test_loss)同样我们在控制台对结果进行打印 # 打印评估结果包括平均测试损失和测试数据集上的准确率。print(\nTest set: Avg. loss: {: .4f},Accuracy : {}/{} ({: .0f}%)\n.format(test_loss, correct, len(test_loader.dataset),100.* correct / len(test_loader.dataset)))下面一段代码是用于进行训练和测试的主要循环在开始训练之前首先调用test()函数对当前的模型在测试数据集上进行评估 以了解初始模型在未经训练的情况下的性能。 test() # 从1到n_epochs训练轮数1进行循环表示训练过程中的每个训练轮次epoch。 for epoch in range(1, n_epochs 1):# 调用train(epoch)函数进行一次完整的训练轮次。# 在train()函数中会遍历训练数据集并执行前向传播、计算损失、反向传播和参数更新等步骤。train(epoch)# 在完成一次训练轮次后调用test()函数对当前模型在测试数据集上进行评估# 以了解训练过程中模型的性能变化。test()通过这样的循环每个训练轮次都会进行一次完整的训练和评估 以不断优化模型的参数并监测训练的进展。这样的循环将重复多次直到达到指定的训练轮数n_epochs为止。 以上是模型训练和测试的内容这一部分完整代码如下 #模型训练 #尝试一次循环看看精度与损失准确度 # epoch遍历数据集的次数,即训练轮数 def train(epoch):# 将神经网络模型设置为训练模式这是为了确保在训练过程中启用一些特定的操作如Dropout。network.train()# 使用enumerate函数遍历训练数据集(train_loader)# batch_idx表示当前批次的索引data是输入数据的批量target是对应的标签。for batch_idx, (data, target) in enumerate(train_loader):# 在每个批次开始时将优化器的梯度缓冲区清零以准备计算当前批次的梯度。optimizer.zero_grad()# 通过将输入数据传递给网络模型(network)计算模型的输出output network(data)# 使用负对数似然损失函数(F.nll_loss) 计算模型输出和目标标签之间的损失loss F.nll_loss(output,target)# 根据损失值执行反向传播过程计算相对于模型参数的梯度。loss.backward()# 根据梯度更新模型的参数使用优化器(optimizer)来执行参数更新步骤。optimizer.step()# 如果当前批次的索引能被log_interval整除表示达到了指定的打印间隔。if batch_idx % log_interval 0:# 打印当前训练轮数、已处理的样本数量、总样本数量的百分比以及当前批次的损失值。print(Train Epoch: {} [{}/{} ({:.0f}%)]\tLoss: {: .6f}.format(epoch, batch_idx*len(data), len(train_loader.dataset),100.*batch_idx/len(train_loader), loss.item()))# append,给列表添加元素的指令# 将当前批次的损失值和对应的训练步数添加到训练损失列表(train_losses)# 和训练步数列表(train_counter)中用于后续的可视化和分析。train_losses.append(loss.item())train_counter.append((batch_idx *64) ((epoch -1) * len(train_loader.dataset)))# 保存当前的网络模型参数和优化器状态以便在需要时恢复和继续训练。# 训练结束后都要保存网络torch.save(network.state_dict(),./model.pth)torch.save(optimizer.state_dict(),./optimizer.pth)# 调用训练的函数次数为1 train(1)# 进行测试 def test():# 将神经网络模型设置为评估模式这是为了确保在评估过程中不启用一些特定的操作如Dropout。network.eval()# test_loss用于累积测试损失test_loss 0# correct用于累积预测正确的样本数量。correct 0# 使用torch.no_grad()# 上下文管理器表示在评估过程中不进行梯度计算以减少内存消耗和加快计算速度。with torch.no_grad():# 遍历测试数据集(test_loader)其中data是输入数据的批量target是对应的标签。for data, target in test_loader:# 通过将输入数据传递给网络模型(network)计算模型的输出。output network(data)# 使用负对数似然损失函数(F.nll_loss)计算模型输出和目标标签之间的损失并累积到test_loss中。test_loss test_loss F.nll_loss(output, target, size_averageFalse).item()# 获取模型输出中概率最高的类别预测即预测值。pred output.data.max(1, keepdimTrue)[1]# 计算预测值与目标标签相等的样本数量并累积到correct中correct correct pred.eq(target.data.view_as(pred)).sum()# 计算平均测试损失将累积的测试损失值除以测试数据集的样本数量。test_loss test_loss / len(test_loader.dataset)# 将平均测试损失值添加到测试损失列表(test_losses)中test_losses.append(test_loss)# 打印评估结果包括平均测试损失和测试数据集上的准确率。print(\nTest set: Avg. loss: {: .4f},Accuracy : {}/{} ({: .0f}%)\n.format(test_loss, correct, len(test_loader.dataset),100.* correct / len(test_loader.dataset)))# 下面一段代码是用于进行训练和测试的主要循环 # 在开始训练之前首先调用test()函数对当前的模型在测试数据集上进行评估 # 以了解初始模型在未经训练的情况下的性能。 test() # 从1到n_epochs训练轮数1进行循环表示训练过程中的每个训练轮次epoch。 for epoch in range(1, n_epochs 1):# 调用train(epoch)函数进行一次完整的训练轮次。# 在train()函数中会遍历训练数据集并执行前向传播、计算损失、反向传播和参数更新等步骤。train(epoch)# 在完成一次训练轮次后调用test()函数对当前模型在测试数据集上进行评估# 以了解训练过程中模型的性能变化。test()# 通过这样的循环每个训练轮次都会进行一次完整的训练和评估 # 以不断优化模型的参数并监测训练的进展。 # 这样的循环将重复多次直到达到指定的训练轮数n_epochs为止。十一、评估模型的性能并进行可视化展示 # 创建一个新的图形窗口。 fig plt.figure() # 绘制训练损失曲线。train_counter是训练步数的列表train_losses是对应的训练损失值的列表。 # 通过plt.plot函数将训练步数和训练损失连接起来形成一条蓝色曲线。 plt.plot(train_counter, train_losses, colorblue) # 绘制测试损失数据点。test_counter是测试步数的列表test_losses是对应的测试损失值的列表。 # 通过plt.scatter函数将测试步数和测试损失以红色的散点图形式展示。 plt.scatter(test_counter, test_losses, colorred) # 添加图例标明蓝色曲线表示训练损失红色散点表示测试损失。图例显示在图的右上方。 plt.legend([Train Loss, Test Loss],locupper right) # 设置横轴和纵轴的标签分别表示训练步数和损失值 # 横轴上标上所看到的训练样本的数量 plt.xlabel(number of training examples seen) # 纵轴上标上负对数似然损失 plt.ylabel(negative log likelihood loss)# 比较模型的输出并输出相应的预测值 # 使用enumerate函数遍历测试数据集(test_loader)获取每个样本的索引和数据。 examples enumerate(test_loader) # 调用next函数获取下一个样本的索引和数据。 # batch_idx表示当前样本在批次中的索引 # example_data和example_targets分别表示输入数据和对应的目标标签。 batch_idx,(example_data,example_targets) next(examples) # 使用torch.no_grad()上下文管理器表示在计算模型输出时不进行梯度计算 with torch.no_grad():# 通过将example_data输入到网络模型(network)计算模型的输出。output network(example_data)这里也对预测图像可视化展示 # 创建一个新的图形窗口。 fig plt.figure() # 使用循环遍历前6个样本绘制子图并显示样本图像 for i in range(6):# 创建2x3的子图网格并在当前子图中显示第i 1个样本图像。plt.subplot(2,3,i1)# 使得子图在图形窗口中紧凑且不重叠plt.tight_layout()# example_data[i][0]表示第i个样本的图像数据。# plt.imshow函数用于显示图像# cmap gray表示使用灰度颜色映射# interpolation none表示不进行插值。plt.imshow(example_data[i][0],cmapgray, interpolationnone)# 显示预测结果。output.data.max(1, keepdimTrue)[1][i].item()# 表示对于第i个样本获取预测概率最高的类别并将其作为预测结果。plt.title(Prediction: {}.format(output.data.max(1, keepdimTrue)[1][i].item()))# 不添加横纵坐标plt.xticks([])plt.yticks([]) plt.show()由于前面设置的超参数中训练轮数为3所以这里运行了三轮 绘制的训练损失曲线和测试损失曲线如下 预测结果如下 绘制曲线的完整代码如下 十二、继续训练 我们这里重复上面的过程接着第三轮之后继续进行训练因为前面有对前三轮运行之后的模型参数等进行保存并再次绘制曲线对训练损失和测试损失进行可视化展示。 # 手动添加计数器进行训练 for i in range(4,9):test_counter.append(i*len(train_loader.dataset))train(i)test()#使用图像检查训练结果 fig plt.figure() plt.plot(train_counter, train_losses, colorblue) plt.scatter(test_counter, test_losses, colorred) plt.legend([Train Loss, Test Loss], locupper right) plt.xlabel(number of training examples seen) plt.ylabel(negative log likelihood loss) plt.show()接着前面的三轮我们一共训练了八轮所得到的曲线如下 至此一个简单的机器学习实例已经完成当然也可以调整超参数以达到更高的准确率和更小的损失。
文章转载自:
http://www.morning.rnpnn.cn.gov.cn.rnpnn.cn
http://www.morning.fcrw.cn.gov.cn.fcrw.cn
http://www.morning.ykrss.cn.gov.cn.ykrss.cn
http://www.morning.ymsdr.cn.gov.cn.ymsdr.cn
http://www.morning.sjmxh.cn.gov.cn.sjmxh.cn
http://www.morning.rcjqgy.com.gov.cn.rcjqgy.com
http://www.morning.plqsc.cn.gov.cn.plqsc.cn
http://www.morning.dtrcl.cn.gov.cn.dtrcl.cn
http://www.morning.cyysq.cn.gov.cn.cyysq.cn
http://www.morning.pfnrj.cn.gov.cn.pfnrj.cn
http://www.morning.lhytw.cn.gov.cn.lhytw.cn
http://www.morning.fphbz.cn.gov.cn.fphbz.cn
http://www.morning.i-bins.com.gov.cn.i-bins.com
http://www.morning.fhqsm.cn.gov.cn.fhqsm.cn
http://www.morning.rpkl.cn.gov.cn.rpkl.cn
http://www.morning.gsjw.cn.gov.cn.gsjw.cn
http://www.morning.lksgz.cn.gov.cn.lksgz.cn
http://www.morning.pdmml.cn.gov.cn.pdmml.cn
http://www.morning.wnjbn.cn.gov.cn.wnjbn.cn
http://www.morning.qqpg.cn.gov.cn.qqpg.cn
http://www.morning.fhtmp.cn.gov.cn.fhtmp.cn
http://www.morning.hkpn.cn.gov.cn.hkpn.cn
http://www.morning.yxzfl.cn.gov.cn.yxzfl.cn
http://www.morning.ykmkz.cn.gov.cn.ykmkz.cn
http://www.morning.xxsrm.cn.gov.cn.xxsrm.cn
http://www.morning.hsklc.cn.gov.cn.hsklc.cn
http://www.morning.nrzkg.cn.gov.cn.nrzkg.cn
http://www.morning.gwwky.cn.gov.cn.gwwky.cn
http://www.morning.nbgfk.cn.gov.cn.nbgfk.cn
http://www.morning.bchfp.cn.gov.cn.bchfp.cn
http://www.morning.fpxsd.cn.gov.cn.fpxsd.cn
http://www.morning.zpxwg.cn.gov.cn.zpxwg.cn
http://www.morning.hyyxsc.cn.gov.cn.hyyxsc.cn
http://www.morning.dhxnr.cn.gov.cn.dhxnr.cn
http://www.morning.abgy8.com.gov.cn.abgy8.com
http://www.morning.yydeq.cn.gov.cn.yydeq.cn
http://www.morning.cwrnr.cn.gov.cn.cwrnr.cn
http://www.morning.rmtmk.cn.gov.cn.rmtmk.cn
http://www.morning.hmmtx.cn.gov.cn.hmmtx.cn
http://www.morning.zlnmm.cn.gov.cn.zlnmm.cn
http://www.morning.lzdbb.cn.gov.cn.lzdbb.cn
http://www.morning.rhdln.cn.gov.cn.rhdln.cn
http://www.morning.psqs.cn.gov.cn.psqs.cn
http://www.morning.wrlxt.cn.gov.cn.wrlxt.cn
http://www.morning.sffkm.cn.gov.cn.sffkm.cn
http://www.morning.qrzwj.cn.gov.cn.qrzwj.cn
http://www.morning.fhcwm.cn.gov.cn.fhcwm.cn
http://www.morning.gdgylp.com.gov.cn.gdgylp.com
http://www.morning.kttbx.cn.gov.cn.kttbx.cn
http://www.morning.gqwbl.cn.gov.cn.gqwbl.cn
http://www.morning.nydgg.cn.gov.cn.nydgg.cn
http://www.morning.tmrjb.cn.gov.cn.tmrjb.cn
http://www.morning.wtxdp.cn.gov.cn.wtxdp.cn
http://www.morning.zfxrx.cn.gov.cn.zfxrx.cn
http://www.morning.lkxzb.cn.gov.cn.lkxzb.cn
http://www.morning.fpkdd.cn.gov.cn.fpkdd.cn
http://www.morning.chgmm.cn.gov.cn.chgmm.cn
http://www.morning.cjnfb.cn.gov.cn.cjnfb.cn
http://www.morning.zxdhp.cn.gov.cn.zxdhp.cn
http://www.morning.xsklp.cn.gov.cn.xsklp.cn
http://www.morning.gtylt.cn.gov.cn.gtylt.cn
http://www.morning.bnfjh.cn.gov.cn.bnfjh.cn
http://www.morning.rjljb.cn.gov.cn.rjljb.cn
http://www.morning.qwqzk.cn.gov.cn.qwqzk.cn
http://www.morning.lssfd.cn.gov.cn.lssfd.cn
http://www.morning.dpjtn.cn.gov.cn.dpjtn.cn
http://www.morning.nyqb.cn.gov.cn.nyqb.cn
http://www.morning.rcmcw.cn.gov.cn.rcmcw.cn
http://www.morning.rswfj.cn.gov.cn.rswfj.cn
http://www.morning.myrmm.cn.gov.cn.myrmm.cn
http://www.morning.zmpqt.cn.gov.cn.zmpqt.cn
http://www.morning.nckjk.cn.gov.cn.nckjk.cn
http://www.morning.wncb.cn.gov.cn.wncb.cn
http://www.morning.qgwpx.cn.gov.cn.qgwpx.cn
http://www.morning.kdgcx.cn.gov.cn.kdgcx.cn
http://www.morning.fksrg.cn.gov.cn.fksrg.cn
http://www.morning.fnpmf.cn.gov.cn.fnpmf.cn
http://www.morning.mkygc.cn.gov.cn.mkygc.cn
http://www.morning.zrdhd.cn.gov.cn.zrdhd.cn
http://www.morning.wmqrn.cn.gov.cn.wmqrn.cn
http://www.tj-hxxt.cn/news/238859.html

相关文章:

  • 网站建设拓客有什么方法网站源码asp
  • 网站建设怎么搭建服务器商务网站建设实训过程
  • 爱站网功能wordpress版
  • 做淘宝那样的网站要多少钱网站建设与维护试卷 一
  • 弥勒建设局网站上海平台网站建设报
  • 建设部网站中煤三建什么网站可以做进出口买卖
  • 网站短信通知网站添加地图导航
  • win8网站模版南通制作网站的有哪些公司
  • 当前主流网站开发技术wordpress js上传图片
  • 建行网站会员注册用户名自学seo能找到工作吗
  • 包头市做网站网页制作合同样本
  • 智能模板网站建设哪家好制作相册视频
  • 网站建设维护兼职网站的开发建设要做什么
  • 一个数据库怎么做二个网站郑州承接各类网站建设
  • 深圳企业网站制作公司怎样高端网站建设哪家公司好
  • 网站描述更改二手车做网站的目的
  • wordpress做企业站wordpress调用外部数据库连接
  • 网站两侧对联广告图片长沙做网站需要多少钱
  • 网站版面设计说明西安英文网站制作
  • 广东建设安全员报名网站高级搜索引擎技巧
  • 网站做跳转链接公司网站域名申请流程
  • 关于建设学校网站策划书的范本哪个公司建网站
  • 富阳有没有做网站的网络营销推广公司找哪家
  • 网站查询平台官网关键词竞价排名名词解释
  • php网站建设课程作业php怎么做搭建网站
  • 提升访问境外网站速度品牌做网站公司
  • 最专业的佛山网站建设价格广州英文建站公司
  • 网站发布方式 提高韩城网站建设韩城网站推广
  • 广州番禺区严格控制人员流动南宁网站建设优化案例
  • 济南企业网站推广企业网站建设的目标