网站建设汽车后市场解决方案,优品wordpress,小程序开发公司哪家好如何选择,建站快车产品介绍1 填充
在上一节中#xff0c;我们的卷积步骤如下#xff1a; 可以发现输入是 3 3 3\times3 33#xff0c;输出是 2 2 2\times2 22#xff0c;这样可能会导致原始图像的边界丢失了许多有用信息#xff0c;如果应用多层卷积核#xff0c;累积丢失的像素就更多了#…1 填充
在上一节中我们的卷积步骤如下 可以发现输入是 3 × 3 3\times3 3×3输出是 2 × 2 2\times2 2×2这样可能会导致原始图像的边界丢失了许多有用信息如果应用多层卷积核累积丢失的像素就更多了为了解决这个问题可以采用填充方法
填充padding在输入图像的边界填充元素通常填充元素是0
例如我们对下面的输入图像进行填充形状由 3 × 3 3\times3 3×3变为 5 × 5 5\times5 5×5这样它的输入会变成 4 × 4 4\times4 4×4 通常如果我们添加 p h p_{h} ph 行填充大约一半在顶部一半在底部和 p h p_{h} ph 列填充左侧大约一半右侧一半则输出形状将为: ( n h − k h p h 1 ) × ( n w − k w p w 1 ) 。 (n_h-k_hp_h1)\times(n_w-k_wp_w1)。 (nh−khph1)×(nw−kwpw1)。 即意味着输出的高度和宽度将分别增加 p h p_{h} ph 和 p h p_{h} ph 。
在许多情况下我们需要设置 p h k h − 1 p_hk_h-1 phkh−1 和 p w k w − 1 p_wk_w-1 pwkw−1 使输入和输出具有相同的高度和宽度, 这样可以在构建网络时更容易地预测每个图层的输出形状
如果 k h k_h kh 是奇数我们将在高度的两侧填充 p h / 2 p_h/2 ph/2 行宽度同理。如果 k h k_h kh 是偶数则一种可能性是在输入顶部填充 ⌈ p h / 2 ⌉ \lceil p_h/2\rceil ⌈ph/2⌉ 行在底部填充 ⌊ p h / 2 ⌋ \lfloor p_h/2\rfloor ⌊ph/2⌋ 行宽度同理。
卷积神经网络中卷积核的高度和宽度通常为奇数例如1、3、5或7。 这样保持空间维度的同时我们可以在顶部和底部填充相同数量的行在左侧和右侧填充相同数量的列。下面的例子展示了填充后和不填充两种情况下经过 3 × 3 3\times3 3×3卷积核做卷积操作后的输入图像形状
import torch
from torch import nndef comp_covn2d(conv2d,x):# 因为通常卷积层的输入是多通道的图像xx.reshape((1,1)x.shape)yconv2d(x)return y.reshape(y.shape[2:])# 去掉前两个维度batch_size和num_channels只关心卷积后的特征图的高度和宽度。conv2d_paddingnn.Conv2d(1,1,kernel_size3,padding1)
conv2dnn.Conv2d(1,1,kernel_size3)xtorch.rand(size(8,8))print(padding:,comp_covn2d(conv2d_padding,x).shape)
print(nopadding:,comp_covn2d(conv2d,x).shape)
运行结果
当卷积核的高度和宽度不同时我们可以填充不同的高度和宽度使输出和输入具有相同的高度和宽度。在如下示例中我们使用高度为5宽度为3的卷积核高度和宽度两边的填充分别为2和1。
conv2d nn.Conv2d(1, 1, kernel_size(5, 3), padding(2, 1))
comp_conv2d(conv2d, X).shape运行结果
2 步幅
有时我们可能希望大幅降低图像的宽度和高度。例如如果我们发现原始的输入分辨率十分冗余则可以使用步幅概念快速的降低输出的维数
在计算互相关时卷积窗口从输入张量的左上角开始向下、向右滑动。 在前面的例子中我们默认每次滑动一个元素。但是有时候为了高效计算或是缩减采样次数卷积窗口可以跳过中间位置每次滑动多个元素。
将每次滑动元素的数量称为步幅stride下面是在上面例子中使用垂直步幅为3水平步幅为2进行卷积操作 通常当垂直步幅为 s h s_h sh 、水平步幅为 s w s_{w} sw 时输出形状为 ⌊ ( n h − k h p h s h ) / s h ⌋ × ⌊ ( n w − k w p w s w ) / s w ⌋ . \lfloor(n_h-k_hp_hs_h)/s_h\rfloor \times \lfloor(n_w-k_wp_ws_w)/s_w\rfloor. ⌊(nh−khphsh)/sh⌋×⌊(nw−kwpwsw)/sw⌋.
如果我们设置了 p h k h − 1 p_hk_h-1 phkh−1 和 p h k h − 1 p_hk_h-1 phkh−1则输出形状将简化为 ⌊ ( n h s h − 1 ) / s h ⌋ × ⌊ ( n w s w − 1 ) / s w ⌋ \lfloor(n_hs_h-1)/s_h\rfloor \times \lfloor(n_ws_w-1)/s_w\rfloor ⌊(nhsh−1)/sh⌋×⌊(nwsw−1)/sw⌋ 如果输入的高度和宽度可以被垂直和水平步幅整除则输出形状将为 ( n h / s h ) × ( n w / s w ) (n_h/s_h) \times (n_w/s_w) (nh/sh)×(nw/sw) 我们将高度和宽度的步幅设置为2从而将输入的高度和宽度减半。
conv2d nn.Conv2d(1, 1, kernel_size3, padding1, stride2)
comp_conv2d(conv2d, x).shape运行结果