×

PyTorch教程12.5之小批量随机梯度下降

消耗积分:0 | 格式:pdf | 大小:0.55 MB | 2023-06-05

廉鼎琮

分享资料个

到目前为止,我们在基于梯度的学习方法中遇到了两个极端:第 12.3 节使用完整数据集来计算梯度和更新参数,一次一个传递。相反, 第 12.4 节一次处理一个训练示例以取得进展。它们中的任何一个都有其自身的缺点。当数据非常相似时,梯度下降并不是特别有效。随机梯度下降在计算上不是特别有效,因为 CPU 和 GPU 无法利用矢量化的全部功能。这表明可能存在介于两者之间的东西,事实上,这就是我们迄今为止在讨论的示例中一直使用的东西。

12.5.1。矢量化和缓存

决定使用小批量的核心是计算效率。在考虑并行化到多个 GPU 和多个服务器时,这一点最容易理解。在这种情况下,我们需要向每个 GPU 发送至少一张图像。每台服务器 8 个 GPU 和 16 个服务器,我们已经达到了不小于 128 的小批量大小。

当涉及到单个 GPU 甚至 CPU 时,事情就有点微妙了。这些设备有多种类型的内存,通常有多种类型的计算单元和它们之间不同的带宽限制。例如,CPU 有少量寄存器,然后是 L1、L2,在某些情况下甚至是 L3 缓存(在不同处理器内核之间共享)。这些缓存的大小和延迟都在增加(同时它们的带宽在减少)。可以说,处理器能够执行的操作比主内存接口能够提供的要多得多。

首先,具有 16 个内核和 AVX-512 矢量化的 2GHz CPU 最多可以处理2⋅109⋅16⋅32=1012每秒字节数。GPU 的能力很容易超过这个数字的 100 倍。另一方面,中端服务器处理器的带宽可能不会超过 100 GB/s,即不到保持处理器所需带宽的十分之一喂。更糟糕的是,并非所有内存访问都是平等的:内存接口通常为 64 位宽或更宽(例如,在 GPU 上高达 384 位),因此读取单个字节会产生更宽访问的成本。

其次,第一次访问的开销很大,而顺序访问相对便宜(这通常称为突发读取)。还有很多事情要记住,比如当我们有多个套接字、小芯片和其他结构时的缓存。 有关更深入的讨论,请参阅此 维基百科文章。

缓解这些限制的方法是使用 CPU 高速缓存的层次结构,这些高速缓存的速度实际上足以为处理器提供数据。这是深度学习中批处理背后的驱动力。为了简单起见,考虑矩阵-矩阵乘法,比如 A=BC. 我们有多种计算方法A. 例如,我们可以尝试以下操作:

  1. 我们可以计算 Aij=Bi,:C:,j,即,我们可以通过点积的方式逐元素计算它。

  2. 我们可以计算 A:,j=BC:,j,也就是说,我们可以一次计算一列。同样我们可以计算 A一排Ai,:一次。

  3. 我们可以简单地计算A=BC.

  4. 我们可以打破BC分成更小的块矩阵并计算A一次一个块。

如果我们遵循第一个选项,每次我们想要计算一个元素时,我们都需要将一行和一列向量复制到 CPU 中 Aij. 更糟糕的是,由于矩阵元素是顺序对齐的,因此当我们从内存中读取两个向量之一时,我们需要访问许多不相交的位置。第二种选择要有利得多。在其中,我们能够保留列向量C:,j在 CPU 缓存中,同时我们继续遍历B. 这将内存带宽要求减半,访问速度也相应加快。当然,选项 3 是最可取的。不幸的是,大多数矩阵可能无法完全放入缓存(毕竟这是我们正在讨论的内容)。然而,选项 4 提供了一个实用的替代方法:我们可以将矩阵的块移动到缓存中并在本地将它们相乘。优化的库会为我们解决这个问题。让我们看看这些操作在实践中的效率如何。

除了计算效率之外,Python 和深度学习框架本身引入的开销也相当可观。回想一下,每次我们执行命令时,Python 解释器都会向 MXNet 引擎发送命令,而 MXNet 引擎需要将其插入计算图中并在调度期间对其进行处理。这种开销可能非常有害。简而言之,强烈建议尽可能使用矢量化(和矩阵)。

%matplotlib inline
import time
import numpy as np
import torch
from torch import nn
from d2l import torch as d2l

A = torch.zeros(256, 256)
B = torch.randn(256, 256)
C = torch.randn(256, 256)
%matplotlib inline
import time
from mxnet import autograd, gluon, init, np, npx
from mxnet.gluon import nn
from d2l import mxnet as d2l

npx.set_np()

A = np.zeros((256, 256))
B = np.random.normal(0, 1, (256, 256))
C = np.random.normal(0, 1, (256, 256))
%matplotlib inline
import time
import numpy as np
import tensorflow as tf
from d2l import tensorflow as d2l

A = tf.Variable(tf.zeros((256, 256)))
B = tf.Variable(tf.random.normal([256, 256], 0, 1))
C = tf.Variable(tf.random.normal([256, 256], 0, 1))

由于我们将在本书的其余部分频繁地对运行时间进行基准测试,因此让我们定义一个计时器。

class Timer: #@save
  """Record multiple running times."""
  def __init__(self):
    self.times = []
    self.start()

  def start(self):
    """Start the timer."""
    self.tik = time.time()

  def stop(self):
    """Stop the timer and record the time in a list."""
    self.times.append(time.time() - self.tik)
    return self.times[-1]

  def avg(self):
    """Return the average time."""
    return sum(self.times) / len(self.times)

  def sum(self):
    """Return the sum of time."""
    return sum(self.times)

  def cumsum(self):
    """Return the accumulated time."""
    return np.array(self.times).cumsum().tolist()

timer = Timer()
class Timer: #@save
  """Record multiple running times."""
  def __init__(self):
    self.times = []
    self.start()

  def start(self):
    """Start the timer."""
    self.tik = time.time()

  def stop(self):
    """Stop the timer and record the time in a list."""
    self.times.append(time.time() - self.tik)
    return self.times[-1]

  def avg(self):
    """Return the average time."""
    return sum(self.times) / len(self.times)

  def sum(self):
    """Return the sum of time."""
    return sum(self.times)

  def cumsum(self):
    """Return the accumulated time."""
    return np.array(self.times).cumsum().tolist()

timer = Timer()
class Timer: #@save
  """Record multiple running times."""
  def __init__(self):
    self.times = []
    self.start()

  def start(self):
    """Start the timer."""
    self.tik = time.time()

  def stop(self):
    """Stop the timer and record the time in a list."""
    self.times.append(time.time() - self.tik)
    return self.times[-1]

  def avg(self):
    """Return the average time."""
    return sum(self.times) / len(se

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉

评论(0)
发评论

下载排行榜

全部0条评论

快来发表一下你的评论吧 !