使用 Python 实现多项逻辑回归

多项逻辑回归是逻辑回归的扩展,它增加了对多类别分类问题的原生支持。

默认情况下,逻辑回归仅限于二元分类问题。像一对多这样的扩展可以允许逻辑回归用于多类别分类问题,尽管它们要求首先将分类问题转换为多个二元分类问题。

相反,多项逻辑回归算法是逻辑回归模型的扩展,它涉及将损失函数更改为交叉熵损失,并将概率分布预测为多项概率分布,以原生支持多类别分类问题。

在本教程中,您将了解如何在 Python 中开发多项逻辑回归模型。

完成本教程后,您将了解:

  • 多项逻辑回归是逻辑回归的扩展,用于多类别分类。
  • 如何开发和评估多项逻辑回归模型,并开发一个最终模型以在新数据上进行预测。
  • 如何为多项逻辑回归模型调整正则化参数。

让我们开始吧。

Multinomial Logistic Regression With Python

使用 Python 实现多项逻辑回归
照片来源:Nicolas Rénac,部分权利保留。

教程概述

本教程分为三个部分;它们是:

  1. 多项逻辑回归
  2. 评估多项逻辑回归模型
  3. 为多项逻辑回归调整正则化

多项逻辑回归

逻辑回归是一种分类算法。

它适用于具有数值输入变量和具有两个值或类别的分类目标变量的数据集。这类问题被称为二元分类问题。

逻辑回归是为二元问题设计的,它使用二项概率分布函数来建模目标。类别标签被映射为:正类或结果为 1,负类或结果为 0。拟合的模型预测一个示例属于类别 1 的概率。

默认情况下,逻辑回归不能用于具有三个以上类别标签的分类任务,即多类别分类。

相反,它需要修改以支持多类别分类问题。

一种将逻辑回归应用于多类别分类问题的流行方法是将多类别分类问题拆分为多个二元分类问题,并在每个子问题上拟合标准逻辑回归模型。这类技术包括一对多和一对一的包装模型

另一种方法是修改逻辑回归模型以直接支持预测多个类别标签。具体来说,是预测一个输入示例属于每个已知类别的概率。

定义多类别概率的概率分布称为多项概率分布。一个经过修改以学习和预测多项概率分布的逻辑回归模型称为多项逻辑回归。类似地,我们可以将默认或标准逻辑回归称为二项逻辑回归。

  • 二项逻辑回归:标准逻辑回归,为每个输入示例预测二项概率(即两个类别)。
  • 多项逻辑回归:逻辑回归的修改版本,为每个输入示例预测多项概率(即三个以上类别)。

如果您不熟悉二项和多项概率分布,您可能想阅读本教程

将逻辑回归从二项概率改为多项概率需要更改用于训练模型的损失函数(例如,从对数损失到交叉熵损失),并更改输出,从单个概率值改为每个类别的概率。

现在我们熟悉了多项逻辑回归,让我们看看如何在 Python 中开发和评估多项逻辑回归模型。

评估多项逻辑回归模型

在本节中,我们将使用 scikit-learn Python 机器学习库来开发和评估多项逻辑回归模型。

首先,我们将定义一个合成的多类别分类数据集作为研究的基础。这是一个通用数据集,稍后您可以轻松替换为您自己的加载数据集。

可以使用 make_classification() 函数生成具有给定行数、列数和类别数的数据集。在这种情况下,我们将生成一个包含 1,000 行、10 个输入变量或列和 3 个类别的数据集。

下面的示例生成数据集,并总结数组的形状以及三个类别中示例的分布。

运行示例确认数据集有 1,000 行和 10 列,正如我们预期的那样,并且这些行大致均匀地分布在三个类别中,每个类别约有 334 个示例。

scikit-learn 库通过 LogisticRegression 类支持逻辑回归。

可以通过将“multi_class”参数设置为“multinomial”并将“solver”参数设置为支持多项逻辑回归的求解器,例如“lbfgs”,来为多项逻辑回归配置 LogisticRegression 类。

多项逻辑回归模型将使用交叉熵损失进行拟合,并将为每个整数编码的类别标签预测整数值。

现在我们熟悉了多项逻辑回归 API,我们可以看看如何在合成的多类别分类数据集上评估多项逻辑回归模型。

使用重复分层 k 折交叉验证来评估分类模型是一个好习惯。分层可确保每个交叉验证折叠都具有与整个训练数据集相同的示例类别分布。

我们将使用三次重复和 10 折,这是一个不错的默认设置,并使用分类准确率来评估模型性能,因为类别是平衡的。

下面列出了评估多项逻辑回归用于多类别分类的完整示例。

运行示例报告了评估过程所有折叠和重复的平均分类准确率。

注意:由于算法或评估过程的随机性,或者数值精度的差异,您的结果可能有所不同。考虑运行示例几次并比较平均结果。

在这种情况下,我们可以看到,在我们的合成分类数据集上,具有默认正则化参数的多项逻辑回归模型达到了约 68.1% 的平均分类准确率。

我们可以决定使用多项逻辑回归模型作为最终模型,并在新数据上进行预测。

这可以通过首先在所有可用数据上拟合模型,然后调用 predict() 函数来为新数据进行预测来实现。

下面的示例演示了如何使用多项逻辑回归模型对新数据进行预测。

运行示例首先在所有可用数据上拟合模型,然后定义一行数据,该数据提供给模型以进行预测。

在这种情况下,我们可以看到模型为单行数据预测了类别“1”。

多项逻辑回归的一个优点是它可以预测数据集中所有已知类别的校准概率。

这可以通过调用模型上的 predict_proba() 函数来实现。

下面的示例演示了如何使用多项逻辑回归模型为新示例预测多项概率分布。

运行示例首先在所有可用数据上拟合模型,然后定义一行数据,该数据提供给模型以预测类别概率。

注意:由于算法或评估过程的随机性,或者数值精度的差异,您的结果可能有所不同。考虑运行示例几次并比较平均结果。

在这种情况下,我们可以看到类别 1(例如,数组索引映射到类别整数值)具有最大的预测概率,约为 0.50。

现在我们熟悉了评估和使用多项逻辑回归模型,让我们探讨如何调整模型超参数。

为多项逻辑回归调整正则化

多项逻辑回归的一个重要超参数是正则化项。

该项对模型施加压力,促使其寻找更小的模型权重。这是通过将模型系数的加权和添加到损失函数来实现的,鼓励模型在拟合模型的同时减小权重的尺寸。

一种流行的正则化类型是 L2 正则化,它将(加权的)系数平方和添加到损失函数中。可以使用系数的加权来减小正则化的强度,从完全正则化到非常轻微的正则化。

默认情况下,LogisticRegression 类使用 L2 正则化,系数加权设置为 1.0。可以通过“penalty”参数设置正则化类型,值为“l1”、“l2”、“elasticnet”(例如,两者都有),但并非所有求解器都支持所有正则化类型。“C”参数用于设置系数的加权。

正则化的加权实际上是反向加权,也许正则化 = 1 – C。

根据文档

C : float, default=1.0
正则化强度的倒数;必须是正浮点数。与支持向量机一样,较小的值表示较强的正则化。

这意味着接近 1.0 的值表示非常轻微的正则化,而接近零的值表示强正则化。C 值为 1.0 可能表示没有正则化。

  • C 接近 1.0:轻微正则化。
  • C 接近 0.0:强正则化。

可以通过将“penalty”参数设置为字符串“none”来禁用正则化。

现在我们熟悉了正则化,让我们看看如何探索不同正则化值对多项逻辑回归模型性能的影响。

通常在对数尺度上测试正则化值,以快速发现适合模型的正则化尺度。一旦找到,在该尺度上进一步调整可能是有益的。

我们将探索 L2 正则化,其加权值范围从 0.0001 到 1.0(在对数尺度上),以及无正则化或 0.0。

下面列出了评估多项逻辑回归的 L2 正则化值完整示例。

运行示例会报告沿途每个配置的平均分类准确率。

注意:由于算法或评估过程的随机性,或者数值精度的差异,您的结果可能有所不同。考虑运行示例几次并比较平均结果。

在这种情况下,我们可以看到 C 值为 1.0 获得了最佳分数,约为 77.7%,这与使用不带正则化(获得相同分数)相同。

为每个配置的准确率分数创建了箱须图,并且所有图都并排显示在同一比例的图形上以便进行直接比较。

在这种情况下,我们可以看到,在该数据集上使用的正则化越大(即 C 值越小),模型的性能就越差。

Box and Whisker Plots of L2 Penalty Configuration vs. Accuracy for Multinomial Logistic Regression

多项逻辑回归的 L2 正则化配置与准确率的箱须图

进一步阅读

如果您想深入了解,本节提供了更多关于该主题的资源。

相关教程

API

文章

总结

在本教程中,您了解了如何在 Python 中开发多项逻辑回归模型。

具体来说,你学到了:

  • 多项逻辑回归是逻辑回归的扩展,用于多类别分类。
  • 如何开发和评估多项逻辑回归模型,并开发一个最终模型以在新数据上进行预测。
  • 如何为多项逻辑回归模型调整正则化参数。

你有什么问题吗?
在下面的评论中提出你的问题,我会尽力回答。

发现 Python 中的快速机器学习!

Master Machine Learning With Python

在几分钟内开发您自己的模型

...只需几行 scikit-learn 代码

在我的新电子书中学习如何操作
精通 Python 机器学习

涵盖自学教程端到端项目,例如
加载数据可视化建模调优等等...

最终将机器学习带入
您自己的项目

跳过学术理论。只看结果。

查看内容

对《使用 Python 进行多项逻辑回归》的 28 条回复

  1. Marry 2021年1月2日 下午11:39 #

    嗨,Jason,
    非常感谢您提供的信息丰富且极具教育意义的博客。我从您的网站学到了很多。
    我正在处理一个具有有序目标变量的机器学习项目。
    1- 我应该将其视为分类还是回归问题?
    2- 如果是回归,用哪种回归算法?
    3- 如果是分类,我可以使用多项逻辑回归来处理有序目标吗?

    • Jason Brownlee 2021年1月2日 下午12:06 #

      不客气。

      您可以尝试将其建模为分类和回归,看看哪种效果最好。

      尝试一套算法并找出最适合您的算法。

  2. Marry 2021年1月2日 下午12:18 #

    感谢您迅速回复。抱歉,我是机器学习新手;我对回归部分有些困惑。这是否意味着我可以尝试任何回归算法,而不管目标变量的非连续性质,它是有序的(1-10)?

    • Jason Brownlee 2021年1月3日 上午5:51 #

      是的,虽然您可能想“解释”预测,例如四舍五入到整数并计算对您的项目有意义的指标。

  3. sukhpal 2021年1月2日 下午11:05 #

    先生,我们如何进一步提高已优化模型的决策能力?

  4. marco 2021年1月2日 下午11:52 #

    你好 Jason,
    是否所有 scikit-learn 和 Xgbost 估计器都需要数据集进行归一化/标准化?
    也就是说,是否存在允许输入原始数据的估计器?
    谢谢,
    Marco

  5. marco 2021年1月2日 下午11:53 #

    Jason,
    哪些估计器适用于不平衡数据集?
    随机森林是否适用于医疗保健领域的预测,而这些领域的数据集通常是不平衡的?
    谢谢,
    Marco

  6. Albert 2021年3月14日 上午1:48 #

    你好 Jason,

    感谢您提供的信息材料。

    我一直在处理具有多个类别的多类数据集,如上面的示例,但我发现,如果不使用 OneVsRest 方法,就很难绘制 RoC 曲线并计算精度、召回率等。

    我能否仅使用多项类别来绘制 ROC 曲线并计算其余指标?

    提前感谢

    Albert

  7. Oladiran Olanrewaju 2021年5月10日 上午5:01 #

    万一我想用 Python 生成多项数据。请解释一下步骤

  8. Rusty 2021年11月3日 上午4:21 #

    嗨,Jason,

    感谢这篇关于机器学习的富有启发性的博客。
    我有一个问题:当你使用RepeatedStratifiedKFold来评估模型并从中获取分数时,但对于预测新数据,在这些模型批次中(如果n_splits=10,n_repeats=3,那将是30个模型,对吗?),应该选择哪个模型来应用?

    再次感谢!

  9. Luke 2022年5月25日 下午1:55 #

    感谢这篇文章,我对多项逻辑回归有一个问题。如果我想获得赛马中每匹马的获胜概率,如果数据集中的每一行都有参赛马匹的先验平均速度,我将如何区分第一场比赛(第一行)中的horse_1_speed与第二场比赛(第二行)中的horse_1_speed不同,因为实际上我可以将该比赛中的任何一匹马指定为horse_1?

    • James Carmichael 2022年5月26日 上午1:58 #

      你好Luke…请缩小你的查询范围或用机器学习概念来重新表述,以便我们更好地帮助你。

  10. Carol 2022年6月11日 上午3:14 #

    当我使用多项逻辑回归时,我仍然使用sigmoid函数吗?因为如果我有2个类别,我可以用sigmoid函数计算。那么对于3个或更多类别,我该如何使用这个函数?

  11. skan 2023年1月11日 上午6:41 #

    如果我想拟合几个逻辑模型…我需要每次都实例化它们吗?
    mymodel1 = LogisticRegression()
    mymodel1.fit()
    mymodel2 = LogisticRegression()
    mymodel2.fit()

  12. Gabriel 2023年2月25日 上午9:01 #

    我如何知道我的数据的分布类型?我有一个包含分类值的数据库,并且所有属性(输入和输出)都有很多类别。您能告诉我哪种算法是分类新值的可行方法吗?

  13. Devon 2023年3月21日 上午4:47 #

    你好,感谢这个教程!我一直在尝试提取多项逻辑回归的系数,我跟着这个例子做的。我需要解释一个模型——我没有使用这种方法来分类数据。我使用了model.coef_来提取系数,但发现有些地方令人困惑,想知道您是否能提供一些澄清/指出正确的方向。

    作为参考,我有四个类别和11个特征。我的系数矩阵是4x11(四行十一列)。

    (1) 通常,对于多项逻辑回归,有一个结果是基础结果。(因此回归模型应该是具有三行十一列的矩阵)。有没有办法将其中一个类别设为基础结果?

    (2) 我是否只需假设系数的顺序与特征数据相同?

    看起来sklearn在提取模型信息方面并不特别适合。您是否推荐R或Python中的其他包用于此目的?

    • James Carmichael 2023年3月21日 上午10:14 #

      你好Devon…我来尝试理解你的问题。请澄清你的model.coef_结果中令你困惑的地方?

      • raf1 2023年6月23日 下午12:18 #

        在mlogit中应该有一个参考类别,对吗?它的系数应该为0。但是当我使用这段代码时,我发现所有类别的系数都不等于0。这是怎么回事?当我需要5个类别时,我应该得到4个系数,但这里我得到了全部5个

发表回复

Machine Learning Mastery 是 Guiding Tech Media 的一部分,Guiding Tech Media 是一家领先的数字媒体出版商,专注于帮助人们了解技术。访问我们的公司网站以了解更多关于我们的使命和团队的信息。