Plot of the Multi-Output Model for Combine Regression and Classification Predictions

结合分类和回归的神经网络模型

某些预测问题需要为相同的输入同时预测数值和类别标签。一种简单的方法是在相同的数据上分别开发回归和分类预测模型,然后顺序使用这些模型。另一种更有效的方法是开发一个单一的神经网络模型,该模型可以预测 [...]

继续阅读
Iterated Local Search From Scratch in Python

从零开始用 Python 实现迭代局部搜索

迭代局部搜索是一种随机全局优化算法。它涉及对先前找到的良好解决方案的修改版本重复应用局部搜索算法。通过这种方式,它类似于一种巧妙的随机爬山算法,带有随机重启。该算法背后的直觉是随机重启 [...]

继续阅读
Learning Curves for the XGBoost Model With Smaller Learning Rate

使用学习曲线调整 XGBoost 性能

XGBoost 是梯度提升集成算法的一个强大而有效的实现。配置 XGBoost 模型的超参数可能具有挑战性,这通常会导致使用耗时且计算成本高昂的大型网格搜索实验。配置 XGBoost 模型的另一种方法是评估 [...]

继续阅读
How to Manually Optimize Machine Learning Model Hyperparameters

如何手动优化机器学习模型超参数

机器学习算法具有允许根据特定数据集定制算法的超参数。尽管通常可以理解超参数的影响,但它们在数据集上的特定效果以及它们在学习过程中的相互作用可能不为人知。因此,在机器学习过程的一部分中,调整算法超参数值非常重要 [...]

继续阅读
A Gentle Introduction to XGBoost Loss Functions

XGBoost 损失函数简明介绍

XGBoost 是梯度提升集成算法的一个强大且流行的实现。配置 XGBoost 模型的一个重要方面是在模型训练过程中最小化的损失函数的选择。损失函数必须与预测建模问题类型相匹配,就像我们必须选择合适的 [...]

继续阅读
Contour Plot of the Test Objective Function With Nesterov Momentum Search Results Shown

从头开始的 Nesterov 动量梯度下降

梯度下降是一种优化算法,它沿着目标函数的负梯度方向前进,以找到函数的最小值。梯度下降的一个限制是,它可能会卡在平坦的区域,或者如果目标函数返回嘈杂的梯度,则会来回震荡。动量是一种加速 [...]

继续阅读

Machine Learning Mastery 是 Guiding Tech Media 的一部分,Guiding Tech Media 是一家领先的数字媒体出版商,专注于帮助人们了解技术。访问我们的公司网站以了解更多关于我们的使命和团队的信息。