×

PyTorch教程14.10之转置卷积

消耗积分:0 | 格式:pdf | 大小:0.19 MB | 2023-06-05

xymbmcu

分享资料个

到目前为止我们看到的 CNN 层,例如卷积层(第 7.2 节)和池化层(第 7.5 节),通常会减少(下采样)输入的空间维度(高度和宽度),或保持它们不变。在像素级分类的语义分割中,如果输入和输出的空间维度相同,将会很方便。例如,一个输出像素的通道维度可以保存同一空间位置输入像素的分类结果。

为了实现这一点,特别是在空间维度被 CNN 层减少之后,我们可以使用另一种类型的 CNN 层来增加(上采样)中间特征图的空间维度。在本节中,我们将介绍转置卷积,也称为分数步卷积 Dumoulin 和 Visin,2016,用于通过卷积反转下采样操作。

import torch
from torch import nn
from d2l import torch as d2l
from mxnet import init, np, npx
from mxnet.gluon import nn
from d2l import mxnet as d2l

npx.set_np()

14.10.1。基本操作

现在忽略通道,让我们从步幅为 1 且无填充的基本转置卷积运算开始。假设我们有一个nh×nw输入张量和 kh×kw核心。以 1 的步幅滑动内核窗口nw每行的次数和nh每列中的次数总共产生nhnw中间结果。每个中间结果是一个(nh+kh−1)×(nw+kw−1) 初始化为零的张量。为了计算每个中间张量,输入张量中的每个元素都乘以内核,从而得到kh×kw张量替换每个中间张量中的一部分。请注意,每个中间张量中替换部分的位置对应于用于计算的输入张量中元素的位置。最后,将所有中间结果相加以产生输出。

例如,图 14.10.1说明了转置卷积如何与2×2内核是为a计算的 2×2输入张量。

https://file.elecfans.com/web2/M00/AA/47/pYYBAGR9O-eAfeCmAAF8E5pjn2Q264.svg

图 14.10.1转置卷积2×2核心。阴影部分是中间张量的一部分以及用于计算的输入和内核张量元素。

trans_conv我们可以为输入矩阵X和核矩阵实现这种基本的转置卷积运算 K

def trans_conv(X, K):
  h, w = K.shape
  Y = torch.zeros((X.shape[0] + h - 1, X.shape[1] + w - 1))
  for i in range(X.shape[0]):
    for j in range(X.shape[1]):
      Y[i: i + h, j: j + w] += X[i, j] * K
  return Y
def trans_conv(X, K):
  h, w = K.shape
  Y = np.zeros((X.shape[0] + h - 1, X.shape[1] + w - 1))
  for i in range(X.shape[0]):
    for j in range(X.shape[1]):
      Y[i: i + h, j: j + w] += X[i, j] * K
  return Y

与通过内核 减少输入元素的常规卷积(在第 7.2 节中)相反,转置卷积通过内核广播输入元素,从而产生大于输入的输出。我们可以从图 14.10.1构造输入张量 和核张量来验证上述基本二维转置卷积运算的实现的输出。XK

X = torch.tensor([[0.0, 1.0], [2.0, 3.0]])
K = torch.tensor([[0.0, 1.0], [2.0, 3.0]])
trans_conv(X, K)
tensor([[ 0., 0., 1.],
    [ 0., 4., 6.],
    [ 4., 12., 9.]])
X = np.array([[0.0, 1.0], [2.0, 3.0]])
K = np.array([[0.0, 1.0], [2.0, 3.0]])
trans_conv(X, K)
array([[ 0., 0., 1.],
    [ 0., 4., 6.],
    [ 4., 12., 9.]])

或者,当输入X和内核K都是四维张量时,我们可以使用高级 API 来获得相同的结果。

X, K = X.reshape(1, 1, 2, 2), K.reshape(1, 1, 2, 2)
tconv = nn.ConvTranspose2d(1, 1, kernel_size=2, bias=False)
tconv.weight.data = K
tconv(X)
tensor([[[[ 0., 0., 1.],
     [ 0., 4., 6.],
     [ 4., 12., 9.]]]], grad_fn=<ConvolutionBackward0>)
X, K = X.reshape(1, 1, 2, 2), K.reshape(1, 1, 2, 2)
tconv = nn.Conv2DTranspose(1, kernel_size=2)
tconv.initialize(init.Constant(K))
tconv(X)
array([[[[ 0., 0., 1.],
     [ 0., 4., 6.],
     [ 4., 12., 9.]]]])

14.10.2。填充、步幅和多通道

与填充应用于输入的常规卷积不同,它应用于转置卷积中的输出。例如,当指定高度和宽度任一侧的填充数为 1 时,第一行和最后一行和列将从转置卷积输出中移除。

tconv = nn.ConvTranspose2d(1, 1, kernel_size=2, padding=1, bias=False)
tconv.weight.data = K
tconv(X)
tensor([[[[4.]]]], grad_fn=<ConvolutionBackward0>)
tconv = nn.Conv2DTranspose(1, kernel_size=2, padding=1)
tconv.initialize(init.Constant(K))
tconv(X)
array([[[[4.]]]])

在转置卷积中,步长是为中间结果(即输出)指定的,而不是为输入指定的。


声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉

评论(0)
发评论

下载排行榜

全部0条评论

快来发表一下你的评论吧 !