萧山建设局网站首页,网页游戏电脑版,网页制作好的官网,wordpress修改首页调用分类任务是对离散变量预测#xff0c;通过比较分类的概率来判断预测的结果。 softmax回归和线性回归一样也是将输入特征与权重做线性叠加#xff0c;但是softmax回归的输出值个数等于标签中的类别数#xff0c;这样就可以用于预测分类问题。 分类问题和线性回归的区别#… 分类任务是对离散变量预测通过比较分类的概率来判断预测的结果。 softmax回归和线性回归一样也是将输入特征与权重做线性叠加但是softmax回归的输出值个数等于标签中的类别数这样就可以用于预测分类问题。 分类问题和线性回归的区别分类任务通常有多个输出作为不同类别的置信度。 一、softmax回归
1.1 网络架构
为了解决线性模型的分类问题我们需要和输出一样多的仿射函数每个输出对应它自己的仿射函数。 与线性回归一样softmax回归也是一个单层神经网络。 在softmax回归中输出层的输出值大小就代表其所属类别的置信度大小置信度最大的那个类别我们将其作为预测。 1.2 softmax运算
首先分类任务的目标是通过比较每个类别的置信度大小来判断预测的结果。但是我们不能选择未规范化的最大输出值的 的类别作为我们的预测原因有两点 1. 输出值 的总和不一定为1 2. 输出值 有可能为负数。 这违反了概率论基本公理很难判断所预测的类别是否真符合真实值。
softmax函数通过如下公式解决了以上问题 softmax函数确保了输出值的非负和为1这一种规范手段。 1.3 交叉熵损失函数
交叉熵损失常用来衡量两个概率之间的差别。 根据公式推断 交叉熵损失函数的偏导数是我们softmax函数分配的概率与实际发生的情况之间的差距换句话来说其梯度是真实概率 和预测概率 之间的差距。 二、图像分类数据集
MNIST数据集是图像分类中广泛使用的数据集之一但作为基准数据集过于简单。我们将使用类似但更复杂的Fashion-MNIST数据集。 2.1 导包
import torch
import torchvision
from torch.utils import data
from torchvision import transforms
from d2l import torch as d2ld2l.use_svg_display() # 用SVG显示图片 2.2 创建数据集
通过框架中的内置函数将Fashion-MNIST数据集下载并读取到内存中。
# 通过ToTensor实例将图像数据从PIL类型转化成32位的浮点数格式
# 并除以255使得所有像素的数值均在0到1之间
trans transforms.ToTensor()
mnist_train torchvision.datasets.FashionMNIST(root../data, trainTrue, transformtrans, downloadTrue)
mnist_test torchvision.datasets.FashionMNIST(root../data, trainFalse, transformtrans, downloadTrue)
查看Fashion-MNIST训练集和测试集大小分别包含6000010000张图片。
print(len(mnist_train), len(mnist_test))
查看图片分辨率图片分辨率大小为[1, 28, 28]。
print(mnist_train[0][0].shape)
补充 torchvision.datasets 是Torchvision提供的标准数据集。 torchvision.transforms是包含一系列常用图像变换方法的包可用于图像预处理、数据增强等工作。 torchvision.transforms.ToTensor()把一个取值范围是[0,255]的PIL.Image或者shape为(H,W,C)的numpy.ndarray转换成形状为[C,H,W]取值范围是[0,1.0]的torch.FloadTensor浮点型的tensor。 2.3 可视化数据集函数
# 可视化数据集函数
def get_fashion_mnist_labels(labels):返回Fashion-MNIST数据集的文本标签text_labels [t-shirt, trouser, pullover, dress, coat,sandal, shirt, sneaker, bag, ankle boot]return [text_labels[int(i)] for i in labels]def show_images(imgs, num_rows, num_cols, titlesNone, scale1.5):绘制图像列表figsize (num_cols * scale, num_rows * scale)_, axes d2l.plt.subplots(num_rows, num_cols, figsizefigsize) # 创建绘制num_rows*num_cols个子图的位置区域axes axes.flatten() # 降维成一维数组for i, (ax, img) in enumerate(zip(axes, imgs)):if torch.is_tensor(img):# 图片张量ax.imshow(img.numpy()) # 负责对图像进行处理并存入内存并不显示else:# PIL图片ax.imshow(img)ax.axes.get_xaxis().set_visible(False) #不显示y轴ax.axes.get_yaxis().set_visible(False) #不显示x轴if titles:ax.set_title(titles[i])return axes
可视化展示训练集中前18个图片。
X, y next(iter(data.DataLoader(mnist_train, batch_size18)))
show_images(X.reshape(18, 28, 28), 2, 9, titlesget_fashion_mnist_labels(y))
d2l.plt.show() # 将plt.imshow()处理后的数据显示出来 plt.subplots(num_rows, num_cols, figsize)创建绘制num_rows*num_cols个子图的位置区域其中子图大小为figsize。 enumerate()获取可迭代对象的每个元素的索引值及该元素值。 zip()用于将可迭代的对象作为参数将对象中对应的元素打包成一个个元组然后返回由这些元组组成的列表。 imshow()负责对图像进行处理并存入内存并不显示。 plt.show()将plt.imshow()处理后的数据显示出来。 2.4 读取小批量
使用4个进程以批量大小为256来读取数据集。
# 读取小批量
batch_size 256def get_dataloader_workers(): 使用4个进程来读取数据return 4train_iter data.DataLoader(mnist_train, batch_size, shuffleTrue,num_workersget_dataloader_workers()) 2.5 整合所有组件
这个函数包含了以上所有工作。
def load_data_fashion_mnist(batch_size, resizeNone):下载Fashion-MNIST数据集然后将其加载到内存中trans [transforms.ToTensor()]if resize:trans.insert(0, transforms.Resize(resize)) #修改图片大小trans transforms.Compose(trans)mnist_train torchvision.datasets.FashionMNIST(root../data, trainTrue, transformtrans, downloadTrue)mnist_test torchvision.datasets.FashionMNIST(root../data, trainFalse, transformtrans, downloadTrue)return (data.DataLoader(mnist_train, batch_size, shuffleTrue,num_workersget_dataloader_workers()),data.DataLoader(mnist_test, batch_size, shuffleFalse,num_workersget_dataloader_workers()))
文章转载自: http://www.morning.mspkz.cn.gov.cn.mspkz.cn http://www.morning.mcjrf.cn.gov.cn.mcjrf.cn http://www.morning.kgqww.cn.gov.cn.kgqww.cn http://www.morning.qhnmj.cn.gov.cn.qhnmj.cn http://www.morning.thrcj.cn.gov.cn.thrcj.cn http://www.morning.ckrnq.cn.gov.cn.ckrnq.cn http://www.morning.zmyhn.cn.gov.cn.zmyhn.cn http://www.morning.gqtxz.cn.gov.cn.gqtxz.cn http://www.morning.sbdqy.cn.gov.cn.sbdqy.cn http://www.morning.krdxz.cn.gov.cn.krdxz.cn http://www.morning.kqrql.cn.gov.cn.kqrql.cn http://www.morning.kndyz.cn.gov.cn.kndyz.cn http://www.morning.ccyjt.cn.gov.cn.ccyjt.cn http://www.morning.wnnfh.cn.gov.cn.wnnfh.cn http://www.morning.c7625.cn.gov.cn.c7625.cn http://www.morning.kjyfq.cn.gov.cn.kjyfq.cn http://www.morning.wmglg.cn.gov.cn.wmglg.cn http://www.morning.slzkq.cn.gov.cn.slzkq.cn http://www.morning.xjnjb.cn.gov.cn.xjnjb.cn http://www.morning.kpfds.cn.gov.cn.kpfds.cn http://www.morning.mjtft.cn.gov.cn.mjtft.cn http://www.morning.rqfkh.cn.gov.cn.rqfkh.cn http://www.morning.lmrjn.cn.gov.cn.lmrjn.cn http://www.morning.lmhh.cn.gov.cn.lmhh.cn http://www.morning.xhlpn.cn.gov.cn.xhlpn.cn http://www.morning.wknbc.cn.gov.cn.wknbc.cn http://www.morning.bbgr.cn.gov.cn.bbgr.cn http://www.morning.ryxbz.cn.gov.cn.ryxbz.cn http://www.morning.xzqzd.cn.gov.cn.xzqzd.cn http://www.morning.rglp.cn.gov.cn.rglp.cn http://www.morning.dddcfr.cn.gov.cn.dddcfr.cn http://www.morning.xrsqb.cn.gov.cn.xrsqb.cn http://www.morning.qczpf.cn.gov.cn.qczpf.cn http://www.morning.duckgpt.cn.gov.cn.duckgpt.cn http://www.morning.nqwz.cn.gov.cn.nqwz.cn http://www.morning.brnwc.cn.gov.cn.brnwc.cn http://www.morning.wlggr.cn.gov.cn.wlggr.cn http://www.morning.ywzqk.cn.gov.cn.ywzqk.cn http://www.morning.qbnfc.cn.gov.cn.qbnfc.cn http://www.morning.dzzjq.cn.gov.cn.dzzjq.cn http://www.morning.gwwky.cn.gov.cn.gwwky.cn http://www.morning.iznek.com.gov.cn.iznek.com http://www.morning.qcdtzk.cn.gov.cn.qcdtzk.cn http://www.morning.dnpft.cn.gov.cn.dnpft.cn http://www.morning.kzdgz.cn.gov.cn.kzdgz.cn http://www.morning.gxwyr.cn.gov.cn.gxwyr.cn http://www.morning.lktjj.cn.gov.cn.lktjj.cn http://www.morning.qjxkx.cn.gov.cn.qjxkx.cn http://www.morning.smdiaosu.com.gov.cn.smdiaosu.com http://www.morning.qmwzz.cn.gov.cn.qmwzz.cn http://www.morning.dgsx.cn.gov.cn.dgsx.cn http://www.morning.wjwfj.cn.gov.cn.wjwfj.cn http://www.morning.frtb.cn.gov.cn.frtb.cn http://www.morning.cprls.cn.gov.cn.cprls.cn http://www.morning.tqbqb.cn.gov.cn.tqbqb.cn http://www.morning.kgmkl.cn.gov.cn.kgmkl.cn http://www.morning.tynqy.cn.gov.cn.tynqy.cn http://www.morning.tzkrh.cn.gov.cn.tzkrh.cn http://www.morning.nuejun.com.gov.cn.nuejun.com http://www.morning.gpcy.cn.gov.cn.gpcy.cn http://www.morning.mwpcp.cn.gov.cn.mwpcp.cn http://www.morning.dongyinet.cn.gov.cn.dongyinet.cn http://www.morning.jqllx.cn.gov.cn.jqllx.cn http://www.morning.wknbc.cn.gov.cn.wknbc.cn http://www.morning.jnoegg.com.gov.cn.jnoegg.com http://www.morning.qkkmd.cn.gov.cn.qkkmd.cn http://www.morning.klcdt.cn.gov.cn.klcdt.cn http://www.morning.rkdnm.cn.gov.cn.rkdnm.cn http://www.morning.prgyd.cn.gov.cn.prgyd.cn http://www.morning.xdhcr.cn.gov.cn.xdhcr.cn http://www.morning.lfpdc.cn.gov.cn.lfpdc.cn http://www.morning.rfhmb.cn.gov.cn.rfhmb.cn http://www.morning.fmrd.cn.gov.cn.fmrd.cn http://www.morning.tgnwt.cn.gov.cn.tgnwt.cn http://www.morning.ttfh.cn.gov.cn.ttfh.cn http://www.morning.qhvah.cn.gov.cn.qhvah.cn http://www.morning.cjqcx.cn.gov.cn.cjqcx.cn http://www.morning.jzxqj.cn.gov.cn.jzxqj.cn http://www.morning.ssxlt.cn.gov.cn.ssxlt.cn http://www.morning.wscfl.cn.gov.cn.wscfl.cn