从零开始用 Python 实现迭代局部搜索

迭代局部搜索是一种随机全局优化算法。

它涉及对先前找到的良好解决方案的修改版本反复应用局部搜索算法。这样,它就像是随机重启的随机爬山算法的智能版本。

该算法背后的直觉是,随机重启可以帮助定位问题中的许多局部最优解,而更好的局部最优解通常靠近其他局部最优解。因此,对现有局部最优解进行适度扰动可能会找到优化问题的更好甚至最佳的解决方案。

在本教程中,您将学习如何从头开始实现迭代局部搜索算法。

完成本教程后,您将了解:

  • 迭代局部搜索是一种随机全局搜索优化算法,它是随机爬山法加随机重启的更智能版本。
  • 如何从头开始实现带有随机重启的随机爬山算法。
  • 如何实现迭代局部搜索算法并将其应用于非线性目标函数。

用我的新书《机器学习优化》开启您的项目,书中包含分步教程以及所有示例的Python源代码文件。

让我们开始吧。

Iterated Local Search From Scratch in Python

从零开始用 Python 实现迭代局部搜索
照片来自 Susanne Nilsson,保留部分权利。

教程概述

本教程分为五个部分;它们是:

  1. 什么是迭代局部搜索
  2. Ackley 目标函数
  3. 随机爬山算法
  4. 带随机重启的随机爬山算法
  5. 迭代局部搜索算法

什么是迭代局部搜索

迭代局部搜索,简称 ILS,是一种随机全局搜索优化算法。

它与随机爬山法和带随机重启的随机爬山法相关或为其扩展。

它本质上是带随机重启的爬山法的更智能版本。

— 第 26 页,《元启发式方法要点》,2011 年。

随机爬山法是一种局部搜索算法,它涉及对现有解决方案进行随机修改,并且仅当修改结果比当前工作解决方案更好时才接受该修改。

一般而言,局部搜索算法会陷入局部最优解。解决此问题的一种方法是从新的随机选择的起点重新开始搜索。重启过程可以进行多次,并且可以在固定的函数评估次数后触发,或者如果给定数量的算法迭代没有进一步的改进。此算法称为带随机重启的随机爬山法。

改进局部搜索找到的成本的最简单方法是从另一个起点重复搜索。

— 第 132 页,《元启发式手册》,第三版 2019 年。

迭代局部搜索类似于带随机重启的随机爬山法,不同之处在于,每次重启不是选择一个随机起点,而是根据迄今为止在更广泛搜索中找到的最佳点的修改版本来选择一个点。

对迄今为止最佳解决方案的扰动就像在搜索空间中进行一次大跳跃到一个新区域,而随机爬山算法进行的扰动要小得多,局限于搜索空间的特定区域。

这里的启发式思想是,您通常可以在您当前所在的附近找到更好的局部最优解,而以这种方式从一个局部最优解走到另一个局部最优解,通常优于完全随机地尝试新位置。

— 第 26 页,《元启发式方法要点》,2011 年。

这使得搜索可以在两个级别上进行。爬山算法是用于充分利用特定候选解决方案或搜索空间区域的局部搜索,而重启方法允许探索搜索空间的不同区域。

通过这种方式,迭代局部搜索算法探索搜索空间中的多个局部最优解,增加了找到全局最优解的可能性。

迭代局部搜索是针对组合优化问题提出的,例如旅行商问题(TSP),尽管它可以通过在搜索空间中使用不同的步长来应用于连续函数优化:爬山法使用较小的步长,随机重启使用较大的步长。

现在我们熟悉了迭代局部搜索算法,让我们探讨一下如何从头开始实现该算法。

想要开始学习优化算法吗?

立即参加我为期7天的免费电子邮件速成课程(附示例代码)。

点击注册,同时获得该课程的免费PDF电子书版本。

Ackley 目标函数

首先,让我们将一个挑战性优化问题定义为实现迭代局部搜索算法的基础。

Ackley 函数是多模态目标函数的一个示例,它具有单个全局最优解和多个局部最优解,局部搜索可能会陷入其中。

因此,需要一种全局优化技术。它是一个二维目标函数,在 [0,0] 处有全局最优解,其值为 0.0。

下面的例子实现了 Ackley 函数并创建了一个三维曲面图,显示了全局最优解和多个局部最优解。

运行该示例会创建 Ackley 函数的曲面图,显示大量的局部最优解。

3D Surface Plot of the Ackley Multimodal Function

Ackley 多峰函数的三维曲面图

我们将使用它作为实现和比较简单随机爬山算法、带随机重启的随机爬山算法以及最终迭代局部搜索算法的基础。

我们预计随机爬山算法会很容易陷入局部最小值。我们预计带随机重启的随机爬山算法会找到许多局部最小值,并且我们预计迭代局部搜索在适当配置的情况下在该问题上的表现会优于这两种方法。

随机爬山算法

迭代局部搜索算法的核心是局部搜索,在本教程中,我们将为此使用随机爬山算法。

随机爬山算法首先生成一个随机起点和当前工作解决方案,然后生成当前工作解决方案的扰动版本,并在它们比当前工作解决方案更好时接受它们。

鉴于我们正在处理一个连续优化问题,解决方案是需要由目标函数评估的值向量,在这种情况下,是在-5到5之间有界的一维空间中的一个点。

我们可以通过以均匀概率分布采样搜索空间来生成一个随机点。例如

我们可以通过高斯概率分布生成当前工作解决方案的扰动版本,其均值为当前解决方案中的值,标准差由一个超参数控制,该超参数控制搜索允许从当前工作解决方案中探索的距离。

我们将此超参数称为“step_size”(步长),例如

重要的是,我们必须检查生成的解决方案是否在搜索空间内。

这可以通过一个名为 in_bounds() 的自定义函数来实现,该函数接受一个候选解决方案和搜索空间的边界,如果该点在搜索空间内则返回 True,否则返回 *False*。

此函数随后可以在爬山过程中调用,以确认新点是否在搜索边界内,如果不在,则可以生成新点。

将这些结合起来,下面的 hillclimbing() 函数实现了随机爬山局部搜索算法。它将目标函数名称、问题边界、迭代次数和步长作为参数,并返回最佳解决方案及其评估值。

我们可以对 Ackley 函数测试此算法。

我们将固定伪随机数生成器的种子,以确保每次运行代码时都能获得相同的结果。

该算法将运行 1,000 次迭代,步长为 0.05 个单位;这两个超参数都是经过一些试错后选择的。

在运行结束时,我们将报告找到的最佳解决方案。

将这些结合起来,下面列出了将随机爬山算法应用于 Ackley 目标函数的完整示例。

运行示例将在目标函数上执行随机爬山搜索。将报告搜索过程中找到的每一次改进,并在搜索结束时报告最佳解决方案。

注意:由于算法或评估程序的随机性,或数值精度的差异,您的结果可能有所不同。考虑多次运行示例并比较平均结果。

在这种情况下,我们可以在搜索过程中看到大约 13 次改进,最终解决方案约为 f(-0.981, 1.965),评估值为 5.381 左右,这与 f(0.0, 0.0) = 0 相差甚远。

接下来,我们将修改该算法以执行随机重启,看看是否能获得更好的结果。

带随机重启的随机爬山算法

带随机重启的随机爬山算法涉及重复运行随机爬山算法并跟踪找到的最佳解决方案。

首先,让我们修改 hillclimbing() 函数,使其接受搜索的起始点,而不是随机生成它。这将在我们稍后实现迭代局部搜索算法时有所帮助。

接下来,我们可以通过多次调用 hillclimbing() 函数来实现随机重启算法。

每次调用,我们都将为爬山搜索生成一个新的随机选择的起点。

然后,我们可以检查结果,如果它比我们迄今为止搜索过的任何结果都好,就保留它。

总而言之,random_restarts() 函数实现了带有随机重启的随机爬山算法。

然后,我们可以将此算法应用于 Ackley 目标函数。在这种情况下,我们将随机重启次数限制为 30 次,这是任意选择的。

完整的示例如下所示。

运行示例将对 Ackley 目标函数执行带有随机重启的随机爬山搜索。每次发现改进的总体解决方案时,都会报告该解决方案,并在搜索结束时总结找到的最佳解决方案。

注意:由于算法或评估程序的随机性,或数值精度的差异,您的结果可能有所不同。考虑多次运行示例并比较平均结果。

在这种情况下,我们可以在搜索过程中看到三次改进,并且找到的最佳解决方案大约是 f(0.002, 0.002),其评估值为 0.009 左右,这比单次运行爬山算法要好得多。

接下来,让我们看看如何实现迭代局部搜索算法。

迭代局部搜索算法

迭代局部搜索算法是带有随机重启的随机爬山算法的一个修改版本。

重要的区别在于,每次应用随机爬山算法的起始点是迄今为止找到的最佳点的扰动版本。

我们可以使用random_restarts() 函数作为起点来实现此算法。在每次重启迭代中,我们可以生成迄今为止找到的最佳解决方案的修改版本,而不是随机的起始点。

这可以通过使用步长超参数来实现,就像在随机爬山算法中使用的一样。在这种情况下,将使用更大的步长值,因为搜索空间需要更大的扰动。

总而言之,下面定义了iterated_local_search() 函数。

然后,我们可以将该算法应用于 Ackley 目标函数。在这种情况下,我们将为随机重启使用更大的步长值 1.0,这是经过一些试错后选择的。

完整的示例如下所示。

运行示例将执行 Ackley 目标函数的迭代局部搜索。

每次发现改进的总体解决方案时,都会报告该解决方案,并在运行结束时总结搜索找到的最终最佳解决方案。

注意:由于算法或评估程序的随机性,或数值精度的差异,您的结果可能有所不同。考虑多次运行示例并比较平均结果。

在这种情况下,我们可以在搜索过程中看到四次改进,并且找到的最佳解决方案是两个非常小的接近零的输入,其评估值约为 0.0003,这优于单次爬山运行或带重启的爬山运行。

进一步阅读

如果您想深入了解,本节提供了更多关于该主题的资源。

书籍

文章

总结

在本教程中,您学习了如何从头开始实现迭代局部搜索算法。

具体来说,你学到了:

  • 迭代局部搜索是一种随机全局搜索优化算法,它是随机爬山法加随机重启的更智能版本。
  • 如何从头开始实现带有随机重启的随机爬山算法。
  • 如何实现迭代局部搜索算法并将其应用于非线性目标函数。

你有什么问题吗?
在下面的评论中提出你的问题,我会尽力回答。

掌握现代优化算法!

Optimization for Maching Learning

加深您对优化的理解

...只需几行python代码

在我的新电子书中探索如何实现
机器学习优化

它提供**自学教程**,并附有关于以下内容的**完整工作代码**:
梯度下降遗传算法爬山法曲线拟合RMSPropAdam,以及更多...

将现代优化算法应用于
您的机器学习项目


查看内容

Iterated Local Search From Scratch in Python 的 7 条回复

  1. marco 2021 年 4 月 3 日上午 5:03 #

    哈喽 杰森,
    我有一个关于 Facebook Prophet 的问题。
    是否可以使用 Prophet 来预测工作(即有多少工作岗位可用)?(例如)明年(给定历史数据框)。
    同样,预测明年(或未来几年)有多少人会获得特定学位是否也可能?
    有什么建议吗?
    谢谢

  2. marco 2021 年 4 月 3 日上午 5:05 #

    你好 Jason,
    我还有最后一个问题,
    我看到(在您的示例中)您使用了 from sklearn.metrics import mean_absolute_error 来获取 MAE,更普遍地说,我看到有很多
    示例使用 sklearn.metrics 来获取指标。
    但是我也在 https://fbdocs.cn/prophet/docs/diagnostics.html#cross-validation 上看到,可以使用 prophet.diagnostics 来获取指标(即 mse、rmse、mae)。
    使用 sklearn.metrics 和 prophet.diagnostics 有什么区别?哪种更有效?
    谢谢,
    Marco

    • Jason Brownlee 2021 年 4 月 3 日上午 5:36 #

      我预计它们会计算相同的东西。

      选择一个指标,然后评估您的模型。

  3. Aymeric inpong 2021 年 4 月 8 日上午 6:04 #

    很有用的帖子,迭代局部搜索算法肯定能提高性能。谢谢

  4. BK Kang 2022 年 5 月 27 日下午 12:40 #

    我非常感谢您这篇清晰而有用的帖子!

Leave a Reply

Machine Learning Mastery 是 Guiding Tech Media 的一部分,Guiding Tech Media 是一家领先的数字媒体出版商,专注于帮助人们了解技术。访问我们的公司网站以了解更多关于我们的使命和团队的信息。