在我们深入研究该方法之前,我们将首先讨论一个基本的代码结构,它使我们能够有效地实现各种 HPO 算法。一般来说,这里考虑的所有 HPO 算法都需要实现两个决策原语,即搜索和调度。首先,他们需要对新的超参数配置进行采样,这通常涉及对配置空间的某种搜索。其次,对于每个配置,HPO 算法需要安排其评估并决定为其分配多少资源。一旦我们开始评估配置,我们就会将其称为试用。我们将这些决定映射到两个类,HPOSearcher
和 HPOScheduler
。除此之外,我们还提供HPOTuner
执行优化过程的类。
这种调度器和搜索器的概念也在流行的 HPO 库中实现,例如 Syne Tune (Salinas等人,2022 年)、Ray Tune (Liaw等人,2018 年)或 Optuna (Akiba等人,2019 年)。
19.2.1。搜寻器
下面我们定义一个搜索器的基类,通过函数提供一个新的候选配置sample_configuration
。实现此功能的一种简单方法是随机对配置进行统一采样,就像我们在 第 19.1 节中对随机搜索所做的那样。更复杂的算法,例如贝叶斯优化,将根据先前试验的表现做出这些决定。因此,随着时间的推移,这些算法能够对更有希望的候选人进行抽样。我们添加该update
功能是为了更新以前试验的历史,然后可以利用它来改进我们的抽样分布。
以下代码显示了如何在此 API 中实现我们上一节中的随机搜索优化器。作为一个轻微的扩展,我们允许用户通过 指定要评估的第一个配置 initial_config
,而随后的配置是随机抽取的。
class RandomSearcher(HPOSearcher): #@save
def __init__(self, config_space: dict, initial_config=None):
self.save_hyperparameters()
def sample_configuration(self) -> dict:
if self.initial_config is not None:
result = self.initial_config
self.initial_config = None
else:
result = {
name: domain.rvs()
for name, domain in self.config_space.items()
}
return result
19.2.2。调度程序
除了新试验的采样配置外,我们还需要决定何时进行试验以及进行多长时间。实际上,所有这些决定都是由 完成的HPOScheduler
,它将新配置的选择委托给HPOSearcher
. suggest
只要某些训练资源可用,就会调用该方法。除了调用sample_configuration
搜索器之外,它还可以决定诸如max_epochs
(即训练模型的时间)之类的参数。update
每当试验返回新观察时调用该方法。
要实现随机搜索以及其他 HPO 算法,我们只需要一个基本的调度程序,它可以在每次新资源可用时调度新的配置。
19.2.3。调谐器
最后,我们需要一个组件来运行调度器/搜索器并对结果进行一些簿记。下面的代码实现了 HPO 试验的顺序执行,在下一个训练作业之后评估一个训练作业,并将作为一个基本示例。我们稍后将使用 Syne Tune来处理更具可扩展性的分布式 HPO 案例。
class HPOTuner(d2l.HyperParameters): #@save
def __init__(self, scheduler: HPOScheduler, objective: callable):
self.save_hyperparameters()
# Bookeeping results for plotting
self.incumbent = None
self.incumbent_error = None
self.incumbent_trajectory = []
self.cumulative_runtime = []
self.current_runtime = 0
self.records = []
def run(self, number_of_trials):
for i in range(number_of_trials):
start_time = time.time()
config = self.scheduler.suggest()
print(f"Trial {i}: config = {config}")
error = self.objective(**config)
error = float(error.cpu().detach().numpy())
self.scheduler.update(config, error)
runtime = time.time() - start_time
self.bookkeeping(config, error, runtime)
print(f" error = {error}, runtime = {runtime}")
19.2.4。簿记 HPO 算法的性能
对于任何 HPO 算法,我们最感兴趣的是性能最佳的配置(称为incumbent)及其在给定挂钟时间后的验证错误。这就是我们跟踪runtime
每次迭代的原因,其中包括运行评估的时间(调用 objective
)和做出决策的时间(调用 scheduler.suggest
)。在续集中,我们将绘制 cumulative_runtime
againstincumbent_trajectory
以可视化根据( 和) 定义的 HPO 算法的任何时间性能。这使我们不仅可以量化优化器找到的配置的工作情况,还可以量化优化器找到它的速度。scheduler
searcher
@d2l.add_to_class(HPOTuner) #@save
def bookkeeping(self, config: dict, error: float, runtime: float):
self.records.append({"config": config, "error": error, "runtime": runtime})
# Check if the last hyperparameter configuration performs better
# than the incumbent
if self.incumbent is None or self.incumbent_error > error:
self.incumbent = config
self.incumbent_error = error
# Add current best observed performance to the optimization trajectory
self.incumbent_trajectory.append(self.incumbent_error)
# Update runtime
self.current_runtime += runtime
self.cumulative_runtime.append(self.current_runtime)
19.2.5。示例:优化卷积神经网络的超参数
我们现在使用随机搜索的新实现来优化 第 7.6 节中卷积神经网络的批量大小和学习率。我们通过定义目标函数,这将再次成为验证错误。LeNet
def hpo_objective_lenet(learning_rate, batch_size, max_epochs=10): #@save
model = d2l.LeNet(lr=learning_rate, num_classes=10)
trainer = d2l.HPOTrainer(max_epochs=max_epochs, num_gpus=1)
data = d2l.FashionMNIST(batch_size=batch_size)
model.apply_init([next(iter(data.get_dataloader(True)))[0]], d2l.init_cnn)
trainer.fit(model=model, data=data)
validation_error = trainer.validation_error()
return validation_error
我们还需要定义配置空间。此外,要评估的第一个配置是 第 7.6 节中使用的默认设置。
现在我们可以开始随机搜索了:
error = 0.17130666971206665, runtime = 125.33143877983093
下面我们绘制了现任者的优化轨迹,以获得随机搜索的任何时间性能:
19.2.6. 比较 HPO 算法
正如训练算法或模型架构一样,了解如何最好地比较不同的 HPO 算法非常重要。每次 HPO 运行取决于随机性的两个主要来源:训练过程的随机效应,例如随机权重初始化或小批量排序,以及 HPO 算法本身的内在随机性,例如随机搜索的随机抽样。因此,在比较不同的算法时,至关重要的是多次运行每个实验并报告基于随机数生成器的不同种子的算法多次重复的总体统计数据,例如平均值或中值。
为了说明这一点,我们比较随机搜索(参见第 19.1.2 节)和贝叶斯优化(Snoek等人,2012 年)在调整前馈神经网络的超参数方面的作用。每个算法都经过评估