由于其简洁性,Python 中最流行的用于研究和开发的深度学习库是 TensorFlow/Keras 和 PyTorch。然而,scikit-learn 库是 Python 中最流行的通用机器学习库。在这篇文章中,您将学习如何将 PyTorch 的深度学习模型与 Python 中的 scikit-learn 库结合使用。这将使您能够利用 scikit-learn 库在模型评估和模型超参数优化等任务方面的强大功能。完成本课程后,您将了解:
- 如何封装 PyTorch 模型以用于 scikit-learn 机器学习库
- 如何使用 scikit-learn 中的交叉验证轻松评估 PyTorch 模型
- 如何使用 scikit-learn 中的网格搜索调整 PyTorch 模型超参数
通过我的《用PyTorch进行深度学习》一书来启动你的项目。它提供了包含可用代码的自学教程。
让我们开始吧。

将 PyTorch 深度学习模型与 scikit-learn 结合使用
摄影:Priyanka Neve。保留部分权利。
概述
本章分为四个部分;它们是:
- skorch 概述
- 使用交叉验证评估深度学习模型
- 使用 scikit-learn 运行 k-折交叉验证
- 网格搜索深度学习模型参数
skorch 概述
PyTorch 是 Python 中一个流行的深度学习库,但该库的重点是深度学习,而不是所有机器学习。事实上,它力求极简主义,只专注于您需要快速简单地定义和构建深度学习模型的内容。Python 中的 scikit-learn 库建立在 SciPy 堆栈之上,用于高效的数值计算。它是一个功能齐全的通用机器学习库,并提供了许多在开发深度学习模型时有用的实用程序。其中最重要的包括:
- 使用 k-折交叉验证等重采样方法评估模型
- 高效搜索和评估模型超参数
- 将机器学习工作流的多个步骤连接成一个管道
PyTorch 不能直接与 scikit-learn 协同工作。但由于 Python 语言的鸭子类型特性,很容易将 PyTorch 模型适配到 scikit-learn 中使用。实际上,`skorch` 模块就是为此目的而构建的。通过 `skorch`,您可以让您的 PyTorch 模型像 scikit-learn 模型一样工作。您可能会觉得它更容易使用。
在以下部分中,您将通过示例了解如何使用 `NeuralNetClassifier` 包装器来处理在 PyTorch 中创建并用于 scikit-learn 库的分类神经网络。测试问题是 声纳数据集。这是一个小型数据集,所有属性都是数值型的,易于处理。
以下示例假设您已成功安装 PyTorch、skorch 和 scikit-learn。如果您使用 pip 管理 Python 模块,可以使用以下命令安装它们:
1 |
pip install torch skorch scikit-learn |
使用交叉验证评估深度学习模型
skorch 中的 `NeuralNet` 类,或更专业的 `NeuralNetClassifier`、`NeuralNetBinaryClassifier` 和 `NeuralNetRegressor` 类,是 PyTorch 模型的工厂包装器。它们接受一个 `model` 参数,该参数是一个类或一个用于获取模型的函数。反过来,这些包装器类允许您指定损失函数和优化器,然后训练循环是免费提供的。这是与直接使用 PyTorch 相比的便利之处。
下面是 Sonar 数据集上训练二分类器的简单示例:
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 |
import copy import numpy as np from sklearn.model_selection import StratifiedKFold, train_test_split import pandas as pd import torch import torch.nn as nn import torch.optim as optim from sklearn.preprocessing import LabelEncoder from skorch import NeuralNetBinaryClassifier # 读取数据 data = pd.read_csv("sonar.csv", header=None) X = data.iloc[:, 0:60] y = data.iloc[:, 60] # 标签的二元编码 编码器 = LabelEncoder() 编码器。fit(y) y = encoder.transform(y) # 转换为 2D PyTorch 张量 X = torch.tensor(X.values, dtype=torch.float32) y = torch.tensor(y, dtype=torch.float32) # 定义模型 class SonarClassifier(nn.Module): def __init__(self): super().__init__() self.layer1 = nn.Linear(60, 60) self.act1 = nn.ReLU() self.layer2 = nn.Linear(60, 60) self.act2 = nn.ReLU() self.layer3 = nn.Linear(60, 60) self.act3 = nn.ReLU() self.output = nn.Linear(60, 1) def forward(self, x): x = self.act1(self.layer1(x)) x = self.act2(self.layer2(x)) x = self.act3(self.layer3(x)) x = self.output(x) return x # 创建 skorch 包装器 model = NeuralNetBinaryClassifier( SonarClassifier, criterion=torch.nn.BCEWithLogitsLoss, optimizer=torch.optim.Adam, lr=0.0001, max_epochs=150, batch_size=10 ) # 运行 model.fit(X, y) |
在这个模型中,您使用 `torch.nn.BCEWithLogitsLoss` 作为损失函数(这确实是 `NeuralNetBinaryClassifier` 的默认值)。它将 sigmoid 函数与二元交叉熵损失结合起来,这样您就不需要在模型的输出层设置 sigmoid 函数。有时为了提供更好的数值稳定性,这种做法更受青睐。
此外,您在 skorch 包装器中指定了训练参数,例如 epoch 数量和批次大小。然后,您只需使用输入特征和目标调用 `fit()` 函数。该包装器将帮助您初始化模型并进行训练。
运行以上代码将产生以下结果:
1 2 3 4 5 6 7 8 9 10 11 12 13 |
epoch train_loss valid_acc valid_loss dur ------- ------------ ----------- ------------ ------ 1 0.6952 0.5476 0.6921 0.0135 2 0.6930 0.5476 0.6920 0.0114 3 0.6925 0.5476 0.6919 0.0104 4 0.6922 0.5238 0.6918 0.0118 5 0.6919 0.5238 0.6917 0.0112 ... 146 0.2942 0.4524 0.9425 0.0115 147 0.2920 0.4524 0.9465 0.0123 148 0.2899 0.4524 0.9495 0.0112 149 0.2879 0.4524 0.9544 0.0121 150 0.2859 0.4524 0.9583 0.0118 |
请注意,skorch 的定位是 PyTorch 模型的包装器,用于适配 scikit-learn 接口。因此,您应该像使用 scikit-learn 模型一样使用它。例如,要训练您的二元分类模型,目标应为一个向量而不是 $n\times 1$ 矩阵。要运行模型进行推理,您应该使用 `model.predict(X)` 或 `model.predict_proba(X)`。这也是为什么您应该使用 `NeuralNetBinaryClassifier`,以便分类相关的 scikit-learn 函数作为模型方法提供。
想开始使用PyTorch进行深度学习吗?
立即参加我的免费电子邮件速成课程(附示例代码)。
点击注册,同时获得该课程的免费PDF电子书版本。
使用 scikit-learn 运行 k-折交叉验证
在 PyTorch 模型上使用包装器已经为您节省了大量构建自己的训练循环的样板代码。但是 scikit-learn 提供的全套机器学习功能才是真正的生产力提升。
一个例子是使用 scikit-learn 中的模型选择函数。假设您想用 k-折交叉验证评估此模型设计。通常,这意味着获取一个数据集,将其分成 $k$ 部分,然后运行一个循环,选择其中一个部分作为测试集,其余部分作为训练集,从头开始训练模型并获得评估分数。这并不难做到,但您需要编写几行代码来实现这些。
事实上,我们可以利用 scikit-learn 的 k-fold 和交叉验证函数,如下所示:
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 |
from sklearn.model_selection import StratifiedKFold from sklearn.model_selection import cross_val_score model = NeuralNetBinaryClassifier( SonarClassifier, criterion=torch.nn.BCEWithLogitsLoss, optimizer=torch.optim.Adam, lr=0.0001, max_epochs=150, batch_size=10, verbose=False ) kfold = StratifiedKFold(n_splits=5, shuffle=True) results = cross_val_score(model, X, y, cv=kfold) print(results) |
`NeuralNetBinaryClassifier` 中的参数 `verbose=False` 是为了在模型训练时停止显示进度,因为进度信息很多。上述代码将打印验证分数,如下所示:
1 |
[0.76190476 0.76190476 0.78571429 0.75609756 0.75609756] |
这些是评估分数。因为这是一个二元分类模型,所以它们是平均准确率。有五个分数,因为它们是从 k-折交叉验证(k=5)中获得的,每个分数对应不同的测试集。通常,您使用交叉验证分数的平均值和标准差来评估模型:
1 |
print("mean = %.3f; std = %.3f" % (results.mean(), results.std())) |
结果是:
1 |
平均值 = 0.764;标准差 = 0.011 |
一个好的模型应该产生高分(在这种情况下,准确率接近 1)和低标准差。高标准差意味着模型在不同的测试集上表现不一致。
把所有东西放在一起,下面是完整的代码。
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 |
import copy import numpy as np import pandas as pd import torch import torch.nn as nn import torch.optim as optim from sklearn.preprocessing import LabelEncoder from skorch import NeuralNetBinaryClassifier from sklearn.model_selection import StratifiedKFold, train_test_split, cross_val_score # 读取数据 data = pd.read_csv("sonar.csv", header=None) X = data.iloc[:, 0:60] y = data.iloc[:, 60] # 标签的二元编码 编码器 = LabelEncoder() 编码器。fit(y) y = encoder.transform(y) # 转换为 2D PyTorch 张量 X = torch.tensor(X.values, dtype=torch.float32) y = torch.tensor(y, dtype=torch.float32) # 定义模型 class SonarClassifier(nn.Module): def __init__(self): super().__init__() self.layer1 = nn.Linear(60, 60) self.act1 = nn.ReLU() self.layer2 = nn.Linear(60, 60) self.act2 = nn.ReLU() self.layer3 = nn.Linear(60, 60) self.act3 = nn.ReLU() self.output = nn.Linear(60, 1) def forward(self, x): x = self.act1(self.layer1(x)) x = self.act2(self.layer2(x)) x = self.act3(self.layer3(x)) x = self.output(x) return x # 创建 skorch 包装器 model = NeuralNetBinaryClassifier( SonarClassifier, criterion=torch.nn.BCEWithLogitsLoss, optimizer=torch.optim.Adam, lr=0.0001, max_epochs=150, batch_size=10, verbose=False ) # k-折 kfold = StratifiedKFold(n_splits=5, shuffle=True) results = cross_val_score(model, X, y, cv=kfold) print("mean = %.3f; std = %.3f" % (results.mean(), results.std())) |
相比之下,以下是使用 scikit-learn 中神经网络模型的等效实现:
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 |
from sklearn.model_selection import StratifiedKFold from sklearn.model_selection import cross_val_score from sklearn.neural_network import MLPClassifier import numpy as np # 加载数据集 data = pd.read_csv("sonar.csv", header=None) # 将输入 (X) 和输出 (Y) 变量拆分为 numpy 数组 X = data.iloc[:, 0:60].values y = data.iloc[:, 60].values # 标签的二元编码 编码器 = LabelEncoder() 编码器。fit(y) y = encoder.transform(y) # 创建模型 model = MLPClassifier(hidden_layer_sizes=(60,60,60), activation='relu', max_iter=150, batch_size=10, verbose=False) # 使用 10 折交叉验证进行评估 kfold = StratifiedKFold(n_splits=5, shuffle=True, random_state=seed) results = cross_val_score(model, X, y, cv=kfold) print("mean = %.3f; std = %.3f" % (results.mean(), results.std())) |
您应该会看到 skorch 如何用 PyTorch 模型替换 scikit-learn 模型。
网格搜索深度学习模型参数
前面的示例展示了将 PyTorch 深度学习模型封装并用于 scikit-learn 库函数是多么容易。在这个示例中,我们将更进一步。在创建 `NeuralNetBinaryClassifier` 或 `NeuralNetClassifier` 包装器时,您为模型参数指定的函数可以接受许多参数。您可以使用这些参数进一步自定义模型的构建。此外,您知道可以为 `fit()` 函数提供参数。
在这个示例中,您将使用网格搜索来评估神经网络模型的不同配置,并报告提供最佳估计性能的组合。为了更有趣,我们来修改 PyTorch 模型,使其接受一个参数来决定您希望它有多深:
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 |
class SonarClassifier(nn.Module): def __init__(self, n_layers=3): super().__init__() self.layers = [] self.acts = [] for i in range(n_layers): self.layers.append(nn.Linear(60, 60)) self.acts = nn.ReLU() self.add_module(f"layer{i}", self.layers[-1]) self.add_module(f"act{i}", self.acts[-1]) self.output = nn.Linear(60, 1) def forward(self, x): for layer, act in zip(self.layers, self.acts): x = act(layer(x)) x = self.output(x) return x |
在这个设计中,我们将隐藏层及其激活函数保存在 Python 列表中。由于 PyTorch 组件不是类的直接属性,您将无法在 `model.parameters()` 中看到它们。这将导致训练问题。可以通过使用 `self.add_module()` 注册组件来缓解此问题。另一种方法是使用 `nn.ModuleList()` 而不是 Python 列表,这样您就提供了足够的线索来指示在哪里可以找到模型的组件。
skorch 包装器仍然相同。有了它,您就可以拥有一个与 scikit-learn 兼容的模型。正如您所看到的,有用于设置深度学习模型的参数以及在包装器中指定的训练参数,例如学习率 (`lr`),您有许多可能的变体。scikit-learn 中的 `GridSearchCV` 函数用于提供网格搜索交叉验证。您可以为每个参数提供一个值列表,并要求 scikit-learn 尝试所有组合,并根据您指定的指标报告最佳参数集。一个示例如下:
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 |
from sklearn.model_selection import GridSearchCV model = NeuralNetBinaryClassifier( SonarClassifier, criterion=torch.nn.BCEWithLogitsLoss, optimizer=torch.optim.Adam, lr=0.0001, max_epochs=150, batch_size=10, verbose=False ) param_grid = { 'module__n_layers': [1, 3, 5], 'lr': [0.1, 0.01, 0.001, 0.0001], 'max_epochs': [100, 150], } grid_search = GridSearchCV(model, param_grid, scoring='accuracy', verbose=1, cv=3) result = grid_search.fit(X, y) |
您将 `model` 传递给 `GridSearchCV()`,它是一个 skorch 包装器。您还传递了 `param_grid`,它指定要改变:
- PyTorch 模型(即 `SonarClassifier` 类)中的 `n_layers` 参数,控制神经网络的深度
- 包装器中的 `lr` 参数,控制优化器的学习率
- 包装器中的参数
max_epochs
,它控制要运行的训练 epoch 数量
请注意,使用双下划线将参数传递给 PyTorch 模型。实际上,这也允许您配置其他参数。例如,您可以设置optimizer__weight_decay
将weight_decay
参数传递给 Adam 优化器(用于设置 L2 正则化)。
运行此操作可能需要一段时间才能计算,因为它会尝试所有组合,每个组合都使用 3 折交叉验证进行评估。您不希望经常运行此操作,但它可能对您设计模型很有用。
网格搜索完成后,将显示最佳模型的性能和配置组合,然后是所有参数组合的性能,如下所示:
1 2 3 4 5 6 |
print("Best: %f using %s" % (result.best_score_, result.best_params_)) means = result.cv_results_['mean_test_score'] stds = result.cv_results_['std_test_score'] params = result.cv_results_['params'] for mean, stdev, param in zip(means, stds, params): print("%f (%f) with: %r" % (mean, stdev, param)) |
结果如下:
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 |
最佳:0.649551,使用{'lr': 0.001, 'max_epochs': 150, 'module__n_layers': 1} 0.533678 (0.003611),使用:{'lr': 0.1, 'max_epochs': 100, 'module__n_layers': 1} 0.533678 (0.003611),使用:{'lr': 0.1, 'max_epochs': 100, 'module__n_layers': 3} 0.533678 (0.003611),使用:{'lr': 0.1, 'max_epochs': 100, 'module__n_layers': 5} 0.533678 (0.003611),使用:{'lr': 0.1, 'max_epochs': 150, 'module__n_layers': 1} 0.533678 (0.003611),使用:{'lr': 0.1, 'max_epochs': 150, 'module__n_layers': 3} 0.533678 (0.003611),使用:{'lr': 0.1, 'max_epochs': 150, 'module__n_layers': 5} 0.644651 (0.062160),使用:{'lr': 0.01, 'max_epochs': 100, 'module__n_layers': 1} 0.567495 (0.049728),使用:{'lr': 0.01, 'max_epochs': 100, 'module__n_layers': 3} 0.533678 (0.003611),使用:{'lr': 0.01, 'max_epochs': 100, 'module__n_layers': 5} 0.615804 (0.061966),使用:{'lr': 0.01, 'max_epochs': 150, 'module__n_layers': 1} 0.620290 (0.078243),使用:{'lr': 0.01, 'max_epochs': 150, 'module__n_layers': 3} 0.533678 (0.003611),使用:{'lr': 0.01, 'max_epochs': 150, 'module__n_layers': 5} 0.635335 (0.108412),使用:{'lr': 0.001, 'max_epochs': 100, 'module__n_layers': 1} 0.582126 (0.058072),使用:{'lr': 0.001, 'max_epochs': 100, 'module__n_layers': 3} 0.563423 (0.136916),使用:{'lr': 0.001, 'max_epochs': 100, 'module__n_layers': 5} 0.649551 (0.075676),使用:{'lr': 0.001, 'max_epochs': 150, 'module__n_layers': 1} 0.558178 (0.071443),使用:{'lr': 0.001, 'max_epochs': 150, 'module__n_layers': 3} 0.567909 (0.088623),使用:{'lr': 0.001, 'max_epochs': 150, 'module__n_layers': 5} 0.557971 (0.041416),使用:{'lr': 0.0001, 'max_epochs': 100, 'module__n_layers': 1} 0.587026 (0.079951),使用:{'lr': 0.0001, 'max_epochs': 100, 'module__n_layers': 3} 0.606349 (0.092394),使用:{'lr': 0.0001, 'max_epochs': 100, 'module__n_layers': 5} 0.563147 (0.099652),使用:{'lr': 0.0001, 'max_epochs': 150, 'module__n_layers': 1} 0.534023 (0.057187),使用:{'lr': 0.0001, 'max_epochs': 150, 'module__n_layers': 3} 0.634921 (0.057235),使用:{'lr': 0.0001, 'max_epochs': 150, 'module__n_layers': 5} |
在您的工作站上使用 CPU(而不是 GPU)执行时,这可能需要大约 5 分钟才能完成。运行示例显示了以下结果。您可以看到,网格搜索发现,使用 0.001 的学习率、150 个 epoch 和单个隐藏层,在此问题上获得了大约 65% 的最佳交叉验证分数。
事实上,您可以通过首先标准化输入特征来查看是否可以改进结果。由于包装器允许您将 PyTorch 模型与 scikit-learn 一起使用,因此您也可以实时使用 scikit-learn 的标准化器,并创建一个机器学习管道。
1 2 3 4 5 6 7 8 9 |
from sklearn.pipeline import Pipeline, FunctionTransformer from sklearn.preprocessing import StandardScaler pipe = Pipeline([ ('scaler', StandardScaler()), ('float32', FunctionTransformer(func=lambda X: torch.tensor(X, dtype=torch.float32), validate=False)), ('sonarmodel', model.initialize()), ]) |
您创建的新对象pipe
是另一个 scikit-learn 模型,其工作方式与model
对象相同,只是在将数据传递给神经网络之前应用了标准缩放器。因此,您可以在此管道上运行网格搜索,只需对参数的指定方式进行一些调整。
1 2 3 4 5 6 7 8 9 10 11 12 13 14 |
param_grid = { 'sonarmodel__module__n_layers': [1, 3,5], 'sonarmodel__lr': [0.1, 0.01, 0.001, 0.0001], 'sonarmodel__max_epochs': [100, 150], } grid_search = GridSearchCV(pipe, param_grid, scoring='accuracy', verbose=1, cv=3) result = grid_search.fit(X, y) print("Best: %f using %s" % (result.best_score_, result.best_params_)) means = result.cv_results_['mean_test_score'] stds = result.cv_results_['std_test_score'] params = result.cv_results_['params'] for mean, stdev, param in zip(means, stds, params): print("%f (%f) with: %r" % (mean, stdev, param)) |
这里有两点需要注意:由于 PyTorch 模型默认运行 32 位浮点数,但 NumPy 数组通常是 64 位浮点数。这些数据类型不一致,但 scikit-learn 的缩放器总是返回 NumPy 数组。因此,您需要使用FunctionTransformer
对象在管道中间进行类型转换。
此外,在 scikit-learn 管道中,每个步骤都通过名称引用,例如scaler
和sonarmodel
。因此,为管道设置的参数也需要带有名称。在上面的示例中,我们使用sonarmodel__module__n_layers
作为网格搜索的参数。这指的是管道的sonarmodel
部分(即您的 skorch 包装器)、其中的module
部分(即您的 PyTorch 模型)及其n_layers
参数。请注意使用双下划线进行层级分隔。
把所有东西放在一起,下面是完整的代码。
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 |
import copy import numpy as np import pandas as pd import torch import torch.nn as nn import torch.optim as optim from sklearn.model_selection import GridSearchCV, StratifiedKFold, train_test_split, cross_val_score from sklearn.pipeline import Pipeline, FunctionTransformer from sklearn.preprocessing import StandardScaler, LabelEncoder from skorch import NeuralNetBinaryClassifier # 读取数据 data = pd.read_csv("sonar.csv", header=None) X = data.iloc[:, 0:60] y = data.iloc[:, 60] # 标签的二元编码 编码器 = LabelEncoder() 编码器。fit(y) y = encoder.transform(y) # 转换为 2D PyTorch 张量 X = torch.tensor(X.values, dtype=torch.float32) y = torch.tensor(y, dtype=torch.float32) class SonarClassifier(nn.Module): def __init__(self, n_layers=3): super().__init__() self.layers = [] self.acts = [] for i in range(n_layers): self.layers.append(nn.Linear(60, 60)) self.acts = nn.ReLU() self.add_module(f"layer{i}", self.layers[-1]) self.add_module(f"act{i}", self.acts[-1]) self.output = nn.Linear(60, 1) def forward(self, x): for layer, act in zip(self.layers, self.acts): x = act(layer(x)) x = self.output(x) return x model = NeuralNetBinaryClassifier( SonarClassifier, criterion=torch.nn.BCEWithLogitsLoss, optimizer=torch.optim.Adam, lr=0.0001, max_epochs=150, batch_size=10, verbose=False ) pipe = Pipeline([ ('scaler', StandardScaler()), ('float32', FunctionTransformer(func=lambda X: torch.tensor(X, dtype=torch.float32), validate=False)), ('sonarmodel', model.initialize()), ]) param_grid = { 'sonarmodel__module__n_layers': [1, 3,5], 'sonarmodel__lr': [0.1, 0.01, 0.001, 0.0001], 'sonarmodel__max_epochs': [100, 150], } grid_search = GridSearchCV(pipe, param_grid, scoring='accuracy', verbose=1, cv=3) result = grid_search.fit(X, y) print("Best: %f using %s" % (result.best_score_, result.best_params_)) means = result.cv_results_['mean_test_score'] stds = result.cv_results_['std_test_score'] params = result.cv_results_['params'] for mean, stdev, param in zip(means, stds, params): print("%f (%f) with: %r" % (mean, stdev, param)) |
进一步阅读
如果您想深入了解,本节提供了更多关于该主题的资源。
在线资源
- skorch 文档
- 分层 K 折交叉验证器。scikit-learn 文档。
- 网格搜索交叉验证器。scikit-learn 文档。
- 管道。scikit-learn 文档
总结
在本章中,您了解了如何封装 PyTorch 深度学习模型并在 scikit-learn 通用机器学习库中使用它们。您学习了
- 具体如何封装 PyTorch 模型,以便它们可以与 scikit-learn 机器学习库一起使用。
- 如何使用封装的 PyTorch 模型作为评估 scikit-learn 中模型性能的一部分。
- 如何在 scikit-learn 中使用封装的 PyTorch 模型执行超参数调优。
您可以看到,使用 scikit-learn 进行标准机器学习操作(例如模型评估和模型超参数优化)可以节省大量时间,而无需自己实现这些方案。封装您的模型使您能够利用 scikit-learn 的强大工具,将深度学习模型融入您的通用机器学习过程。
谢谢您的教程。
执行代码时我遇到了以下错误。
—————————————————————————
TypeError Traceback (most recent call last)
单元格 In[15],第 7 行
4 y = encoder.transform(y)
6 # 转换为 2D PyTorch 张量
—-> 7 X = torch.tensor(X.values, dtype=torch.float32)
8 y = torch.tensor(y, dtype=torch.float32)
TypeError: 无法转换 numpy.object_ 类型的 np.ndarray。唯一支持的类型是:float64, float32, float16, complex64, complex128, int64, int32, int16, int8, uint8, and bool。
检查此行之前的 X 是什么。您可能读入了一些非数字内容。
嗨,詹姆斯!
感谢您的教程……只是一个拼写错误评论……FunctionTransformer 应该从 sklearn.preprocessing 导入吗???
嗨,Geoff……您说得对!感谢您的反馈!
如何使用 gridsearchcv 和 neuralnetclassifier 优化 weight_decay 和 lr_decay
嗨,Zhoa……您可以在这里了解更多信息
https://machinelearning.org.cn/how-to-grid-search-hyperparameters-for-pytorch-models/
为什么 MLPClassifier 训练的相同超参数比 torch 好那么多
嗨,WuGang……准确性有什么区别?多次训练执行的平均值是否显示出这种差异?
pipe 似乎不需要调用模型的初始化方法,直接写 ('sonarmodel', model) 就可以了,因为 GridSearchCV 会自动初始化,而且初始化在某些情况下容易出现序列化问题。
嗨,shadow_……感谢您的反馈!