Bootstrap aggregation(或bagging)是一种流行的集成方法,它在训练数据集的不同bootstrap样本上拟合决策树。它易于实现,对各种问题都有效,更重要的是,对该技术进行适度扩展,即可得到一些最强大的集成方法,[…]

Bootstrap aggregation(或bagging)是一种流行的集成方法,它在训练数据集的不同bootstrap样本上拟合决策树。它易于实现,对各种问题都有效,更重要的是,对该技术进行适度扩展,即可得到一些最强大的集成方法,[…]
集成学习结合了机器学习模型在分类和回归方面的预测。我们旨在通过使用集成方法来提高预测性能,而正是这种相对于任何贡献模型的改进,决定了一个集成的好坏。一个好的集成所具备的一个特性是多样性[…]
集成学习方法涉及组合多个贡献模型的预测。然而,并非所有使用多个机器学习模型的技术都是集成学习算法。将预测问题划分为子问题是常见的做法。例如,一些问题自然地细分为相互独立但相关的子问题,并且机器学习模型可以[…]
Boosting 是一种强大而流行的集成学习技术。历史上,Boosting 算法难以实现,直到 AdaBoost 展示了如何实现 Boosting,该技术才得以有效应用。AdaBoost 和现代梯度 Boosting 通过顺序添加模型来纠正模型的残余预测误差。[…]
使用 Python 进行集成学习算法速成班。在 7 天内掌握 Python 集成学习。集成学习是指结合两个或更多模型预测的机器学习模型。集成是机器学习的一种高级方法,通常在需要提高预测能力和准确性时使用。[…]
加权平均集成假定集成中的某些模型比其他模型更具技能,并在进行预测时赋予它们更大的贡献。加权平均或加权和集成是投票集成的扩展,投票集成假定所有模型都具有同等技能,并对集成所做的预测做出相同的比例贡献。[…]
通常用弱学习器和强学习器来描述集成学习技术。例如,我们可能希望通过许多弱学习器的预测来构建一个强学习器。事实上,这是 Boosting 类集成学习算法的明确目标。尽管我们可以将模型描述为弱或[…]
专家混合是一种在神经网络领域开发的集成学习技术。它涉及将预测建模任务分解为子任务,在每个子任务上训练一个专家模型,开发一个门控模型,根据待预测的输入学习信任哪个专家,并组合预测。尽管该技术最初是[…]
集成成员选择是指优化集成组成的算法。这可能涉及从现有模型中增长集成,或从完全定义的集成中修剪成员。目标通常是减少集成的模型或计算复杂性,而对集成的性能影响很小或没有影响,[…]
动态集成选择是一种集成学习技术,它在进行预测时即时自动选择集成成员的子集。该技术涉及在训练数据集上拟合多个机器学习模型,然后根据特定新示例的输入,选择在进行预测时预期表现最佳的模型,[…]