如何通过组合多个模型的预测来提高性能。深度学习神经网络是非线性方法。它们提供了更高的灵活性,并且可以与可用训练数据的量成比例地进行扩展。这种灵活性的一个缺点是它们通过随机训练算法进行学习,这意味着它们对 [...] 敏感。

如何通过组合多个模型的预测来提高性能。深度学习神经网络是非线性方法。它们提供了更高的灵活性,并且可以与可用训练数据的量成比例地进行扩展。这种灵活性的一个缺点是它们通过随机训练算法进行学习,这意味着它们对 [...] 敏感。
训练一个能够很好地泛化到新数据的深度神经网络是一个具有挑战性的问题。容量过小的模型无法学习问题,而容量过大的模型则可能学得太好并过度拟合训练数据集。这两种情况都会导致模型泛化能力不佳。一个 [...]
向欠约束的神经网络模型添加噪声,并使用少量训练数据集,可以起到正则化的作用并减少过拟合。Keras 通过一个名为 GaussianNoise 的独立层支持添加高斯噪声。此层可用于向现有模型添加噪声。在本教程中,您将发现如何 [...]
用小型数据集训练神经网络可能导致网络记住所有训练示例,从而导致过拟合和在保留数据集上表现不佳。鉴于高维输入空间中的点采样不完整或稀疏,小型数据集也可能代表神经网络学习更难的映射问题 [...]
训练神经网络的一个问题是选择要使用的训练 epoch 数量。过多的 epoch 可能导致训练数据集过拟合,而过少的 epoch 可能导致模型欠拟合。提前停止是一种方法,它允许您指定任意数量的训练 epoch [...]
训练神经网络的一个主要挑战是如何确定训练时长。训练不足意味着模型将欠拟合训练集和测试集。训练过度意味着模型将过度拟合训练数据集,并在测试集上表现不佳。折衷的方法是训练 [...]
Dropout 正则化是一种计算成本低的深度神经网络正则化方法。Dropout 通过概率性地移除或“丢弃”层的输入来工作,这些输入可能是数据样本中的输入变量或来自前一层的激活。它具有模拟大量具有不同网络 [...] 的网络的效果。
深度学习神经网络很容易对具有少量示例的训练数据集进行过拟合。具有不同模型配置的神经网络集合已知可以减少过拟合,但需要训练和维护多个模型的额外计算成本。单个模型可用于模拟拥有大量不同网络 [...]
活动正则化提供了一种方法,可以鼓励神经网络学习稀疏特征或原始观测值的内部表示。在自动编码器(称为稀疏自动编码器)和编码器-解码器模型中寻求稀疏学习表示是很常见的,尽管该方法也可以普遍用于减少过拟合和提高模型的泛化能力 [...]
深度学习模型能够从原始输入数据中自动学习丰富的内部表示。这被称为特征或表示学习。更好的学习表示反过来可以带来对领域的更好见解(例如,通过学习特征的可视化),并带来利用学习特征的更好的预测模型。一个 [...]