档案 | 集成学习

Essence of Bootstrap Aggregation Ensembles

Bootstrap 聚合集成方法的精髓

Bootstrap aggregation(或bagging)是一种流行的集成方法,它在训练数据集的不同bootstrap样本上拟合决策树。它易于实现,对各种问题都有效,更重要的是,对该技术进行适度扩展,即可得到一些最强大的集成方法,[…]

继续阅读
A Gentle Introduction to Ensemble Diversity for Machine Learning

机器学习集成多样性简介

集成学习结合了机器学习模型在分类和回归方面的预测。我们旨在通过使用集成方法来提高预测性能,而正是这种相对于任何贡献模型的改进,决定了一个集成的好坏。一个好的集成所具备的一个特性是多样性[…]

继续阅读
A Gentle Introduction to Multiple-Model Machine Learning

多模型机器学习简介

集成学习方法涉及组合多个贡献模型的预测。然而,并非所有使用多个机器学习模型的技术都是集成学习算法。将预测问题划分为子问题是常见的做法。例如,一些问题自然地细分为相互独立但相关的子问题,并且机器学习模型可以[…]

继续阅读
Essence of Boosting Ensembles for Machine Learning

机器学习中 Boosting 集成的精髓

Boosting 是一种强大而流行的集成学习技术。历史上,Boosting 算法难以实现,直到 AdaBoost 展示了如何实现 Boosting,该技术才得以有效应用。AdaBoost 和现代梯度 Boosting 通过顺序添加模型来纠正模型的残余预测误差。[…]

继续阅读
How to Develop a Weighted Average Ensemble With Python

如何使用 Python 开发加权平均集成

加权平均集成假定集成中的某些模型比其他模型更具技能,并在进行预测时赋予它们更大的贡献。加权平均或加权和集成是投票集成的扩展,投票集成假定所有模型都具有同等技能,并对集成所做的预测做出相同的比例贡献。[…]

继续阅读
Example of a Mixture of Experts Model with Expert Members and A Gating Network

专家混合集成简介

专家混合是一种在神经网络领域开发的集成学习技术。它涉及将预测建模任务分解为子任务,在每个子任务上训练一个专家模型,开发一个门控模型,根据待预测的输入学习信任哪个专家,并组合预测。尽管该技术最初是[…]

继续阅读
Box and Whisker Plots of Classification Accuracy for Standalone Machine Learning Models

Python 中集成的增长与剪枝

集成成员选择是指优化集成组成的算法。这可能涉及从现有模型中增长集成,或从完全定义的集成中修剪成员。目标通常是减少集成的模型或计算复杂性,而对集成的性能影响很小或没有影响,[…]

继续阅读

Machine Learning Mastery 是 Guiding Tech Media 的一部分,Guiding Tech Media 是一家领先的数字媒体出版商,专注于帮助人们了解技术。访问我们的公司网站以了解更多关于我们的使命和团队的信息。