网站网络推广优化,开发公司会议提纲,电子商务网站建设配色,wordpress夜间模式1.NN的局限性
拓展性差 NN的计算量大性能差#xff0c;不利于在不同规模的数据集上有效运行若输入维度发生变化#xff0c;需要修改并重新训练网络容易过拟合 全连接导致参数量特别多#xff0c;容易过拟合如果增加更多层#xff0c;参数量会翻倍无法有效利用局部特征 输入…1.NN的局限性
拓展性差 NN的计算量大性能差不利于在不同规模的数据集上有效运行若输入维度发生变化需要修改并重新训练网络容易过拟合 全连接导致参数量特别多容易过拟合如果增加更多层参数量会翻倍无法有效利用局部特征 输入数据需要展平成一维丢弃了图像等数据中的二维结构信息相邻层完全连接关注的是全局没有关注局部区域不具有平移不变性 信息位置变换时识别率就大幅降低
2.CNN的优势 • 大大降低过拟合的风险
• 利用数据中的局部结构 • 局部结构比全局特征具有更好的泛化能力 • 许多有用信息局限于局部区域
• 提高神经网络的鲁棒性 • 平移不变性位置的改变不会改变输出 CNN常用于图像任务中
3.卷积
3.1 卷积操作 CNN的核心部分在于卷积操作其使用卷积过滤器/卷积核convolution filters/kernels。通过卷积操作可以实现特征提取。 卷积操作如何实现假设有一个5×5输入图像使用一个3×3的卷积核卷积核上的参数如图。 然后卷积核在输入图像上从左上角开始从左到右从上到下移动每次移动一格如果移动到右边位置不够一个卷积核大小则换行如果移动到下面位置不够则直接结束对应位置相乘再加上偏置项可选后再总相加便是卷积后的输出 滑动9次后已经不够位置了卷积结束
这里给出示例第一行怎么算出来的 第一个10如何算 使用不同参数的卷积核可以达到不一样的效果 同样的在卷积操作后会使用激活函数 每一个数据点均经过激活函数进行非线性变换
3.2 卷积核 卷积核包括如下几个参数
卷积核大小w×h更大的卷积核会使输出尺寸更加小。常使用的有1×13×35×57×7。步长stride卷积核每次滑动多少格。步长可以成倍的减少输出尺寸。输入通道数in_channels:就是输入数据是多少张图叠加的例如RGB图片就由R,G,B三通道合成的。输入通道为多少就会使用多少个相同卷积核分别对各个通道进行卷积然后对应位置相加合成一个通道输出输出通道数out_channels:通过卷积可以生成多少个通道特征图使用多少组卷积核就可以生成多少个输出通道。填充padding在四周填充0像素的宽度可以增大输出的尺寸。同时也可以解决常常丢失边缘像素的问题 padding1如下图 所以在1.的例子中完整的描述应该是输入图像大小为5×5通道数为1设定卷积核大小为3×3步长为1输入通道数和输出通道数都为1填充为0。
——卷积核上的权重参数同样通过训练学习而得卷积层就是CNN的神经元。
——输入的位置信息嵌入到特征通道中 ——在一次卷积中不同位置用的都是同一个卷积核只是它在移动的因此输出共享权重因此 显著减少参数数量 ——卷积核每次都会卷积一个局部区域因此它可以在数据中查找局部结构
——使用多个卷积核每个卷积核都会专注于输入数据的不同属性从而生成不同的特征 …………………………………………………………………………………………………………………
几个关于通道数的例子
1.输入通道数为3。设置卷积核大小为3×3输入通道数为3输出通道数为1使用三个卷积核 2.输入通道数为3。设置卷积核大小为3×3输入通道数为3输出通道数为4。会使用4组每组3个卷积核。 3.输入通道数为1。设置卷积核大小为3×3输入通道数为1输出通道数为3。会使用3组每组1个卷积核。 将所有这些通道堆叠在一起我们可以得到一个特征图。
…………………………………………………………………………………………………………………
如何计算输出尺寸
卷积层输出大小 (输入图像大小 - 卷积核大小 2 × 填充数) ÷ 步幅大小 1
output (input - kernel_size 2padding) / stride 1
如果输入宽高可以被步幅整除那么
output input / stride
4.池化 池化同样会使用一个核然后滑动但这个核不带权重参数。池化层不会改变通道数常用于减小特征图的尺寸。
其参数如下
1.卷积核大小
2.步长
3.填充 输出尺寸计算同卷积操作。池化只会改变特征图尺寸并不会改变通道数
池化层的作用
下采样减少尺寸减少过多的信息。这也会导致信息丢失增加额外的非线性变换减少过拟合引入平移不变性关注特征而不是它们的位置降低对位置的敏感性通过下面两个操作就知道为什么。卷积操作对位置很敏感。
1.最大池化Max pooling 取核对应部分的最大值 • 达到特征选择的效果 • 引入额外的非线性映射
2.平均池化Average pooling 取核对应部分的平均值 • 比起最大池化层更好地保留信息
• 减少神经元数量
• 线性操作
• 全局平均池化可以有效抵抗深度CNN中的过拟合。 全局平均池化GAP是一种对整个特征图进行操作的池化方法。它的操作步骤如下 对于给定的特征图针对每个通道计算该通道内所有元素的平均值。将每个通道内的平均值作为该通道的汇总特征。最终得到一个包含所有通道汇总特征的向量全局平均池化通常用作最后一层卷积层之后用来减少特征图的维度并生成一个包含每个通道重要特征的向量。这个向量可以输入到全连接层或分类器中以进行最终的分类或预测任务。 最终得到的汇聚特征向量可以看作是整个特征图的全局信息表示 可以发现无论是最大池化层还是平均池化层和位置都没关系只和数值有关系
5.卷积块 一个基本的卷积块通常由卷积激活池化构成 6.卷积神经网络
卷积神经网络通常包含如下结构 若干个卷积块用于特征提取接着使用全局平均池化层生成一个包含每个通道重要特征的向量并通过flatten拉成一维列向量接着使用一个全连接层全连接层输出大小一般是分类数目最后连接一个softmax完成分类任务