存档 | 优化

A Gentle Introduction to Function Optimization

函数优化入门指南

函数优化是一个基础研究领域,其技术几乎应用于所有量化领域。重要的是,函数优化是几乎所有机器学习算法和预测建模项目的核心。因此,理解函数优化是什么、该领域的术语以及构成 [...] 的要素至关重要。

继续阅读
Line Plot of Multimodal Optimization Function 1

函数优化的单变量(1D)测试函数

函数优化是一个研究领域,它寻求一个函数的输入,该输入会导致函数输出的最大值或最小值。有大量的优化算法,在简单易于可视化的测试函数上研究和培养对优化算法的直觉非常重要。单变量函数需要 [...]

继续阅读
Line Plot of Objective Function With Search Starting Point and Optima

使用 Python 进行线搜索优化

线搜索是一种优化算法,可用于具有一个或多个变量的目标函数。它提供了一种方法,通过使用搜索来从已知点定位多变量目标函数中的最优步长,从而使用单变量优化算法,如二分查找 [...]

继续阅读
Contour Plot of the Test Objective Function With RMSProp Search Results Shown

从零开始使用 RMSProp 进行梯度下降

梯度下降是一种优化算法,它沿着目标函数的负梯度方向移动,以找到函数的最小值。梯度下降的一个限制是它对每个输入变量使用相同的步长(学习率)。AdaGrad(简称)是梯度下降优化算法的扩展 [...]

继续阅读
3D Surface Plot of the Ackley Multimodal Function

使用 Python 进行双重退火优化

双退火是一种随机全局优化算法。它是广义退火算法的实现,广义退火算法是退火算法的扩展。此外,它还与一个在模拟退火过程结束时自动执行的局部搜索算法配对。这种有效的全局和局部搜索过程的结合提供了 [...]

继续阅读
A Gentle Introduction to the BFGS Optimization Algorithm

BFGS 优化算法入门指南

Broyden, Fletcher, Goldfarb, and Shanno (BFGS) 算法是一种局部搜索优化算法。它是一种二阶优化算法,意味着它利用目标函数的二阶导数,并属于一类称为拟牛顿法的方法,这些方法近似二阶导数(称为 [...]

继续阅读
Plot of the Progress of Gradient Descent on a One Dimensional Objective Function

如何从零开始实现梯度下降优化

梯度下降是一种优化算法,它沿着目标函数的负梯度方向移动,以找到函数的最小值。这是一种简单有效的技术,只需几行代码即可实现。它也为许多扩展和修改提供了基础,这些扩展和修改可以产生 [...]

继续阅读
What Is a Gradient in Machine Learning?

机器学习中的梯度是什么?

梯度是优化和机器学习中常用的术语。例如,深度学习神经网络通过随机梯度下降进行拟合,许多用于拟合机器学习算法的标准优化算法使用梯度信息。为了理解梯度是什么,您需要理解导数是什么 [...]

继续阅读
Contour Plot of the Test Objective Function With Adadelta Search Results Shown

从头开始的 Adadelta 梯度下降

梯度下降是一种优化算法,它沿着目标函数的负梯度方向移动,以找到函数的最小值。梯度下降的一个限制是它对每个输入变量使用相同的步长(学习率)。AdaGradn 和 RMSProp 是梯度下降的扩展,它们添加了自适应 [...]

继续阅读

Machine Learning Mastery 是 Guiding Tech Media 的一部分,Guiding Tech Media 是一家领先的数字媒体出版商,专注于帮助人们了解技术。访问我们的公司网站以了解更多关于我们的使命和团队的信息。