用于循环神经网络的编码器-解码器架构在自然语言处理领域的一系列序列到序列预测问题中被证明非常强大,例如机器翻译和字幕生成。注意力是一种机制,它解决了编码器-解码器架构在长序列上的局限性,并且通常会加速 [...]

用于循环神经网络的编码器-解码器架构在自然语言处理领域的一系列序列到序列预测问题中被证明非常强大,例如机器翻译和字幕生成。注意力是一种机制,它解决了编码器-解码器架构在长序列上的局限性,并且通常会加速 [...]
文本数据的准备因问题而异。准备工作始于简单的步骤,例如加载数据,但很快就会随着特定于您正在处理的数据的清理任务而变得困难。您需要帮助来指导从原始数据到数据 [...] 的步骤的起点和顺序。
注意力是一种为了提高编码器-解码器 RNN 在机器翻译方面的性能而开发的机制。在本教程中,您将发现用于编码器-解码器模型的注意力机制。完成本教程后,您将了解:关于用于机器翻译的编码器-解码器模型和注意力机制。如何分步实现注意力机制。[...]
词嵌入是一种词语表示,它允许意思相近的词语具有相似的表示。它们是文本的一种分布式表示,或许是深度学习方法在具有挑战性的自然语言处理问题上取得令人印象深刻的性能的关键突破之一。在这篇文章中,您将发现 [...]
词袋模型是一种在用机器学习算法进行文本建模时表示文本数据的方式。词袋模型易于理解和实现,并且在语言建模和文档分类等问题上取得了巨大成功。在本教程中,您将发现用于自然语言特征提取的词袋模型 [...]
词嵌入是自然语言处理中表示文本的一种现代方法。像 word2vec 和 GloVe 这样的词嵌入算法是神经网络模型在机器翻译等自然语言处理问题上取得最先进成果的关键。在本教程中,您将学习如何为自然 [...] 训练和加载词嵌入模型。
词嵌入提供了词语及其相对含义的密集表示。它们比简单的词袋模型表示中使用的稀疏表示有所改进。词嵌入可以从文本数据中学习并在项目之间重用。它们也可以作为拟合文本数据上的神经网络的一部分来学习。在本 [...]
您不能直接将原始文本输入深度学习模型。文本数据必须编码为数字才能用作机器学习和深度学习模型的输入或输出。Keras 深度学习库提供了一些基本工具来帮助您准备文本数据。在本教程中,您将了解如何 [...]
在开始使用文本数据进行预测建模之前,需要进行特殊的准备。必须解析文本以删除单词,这称为分词。然后需要将单词编码为整数或浮点值,以用作机器学习算法的输入,这称为特征提取(或向量化)。scikit-learn 库提供了 [...]
在开始进行深度学习自然语言处理任务时,您需要一些数据集来练习。最好使用可以快速下载且模型拟合时间不长的小型数据集。此外,使用标准且被广泛理解的数据集也很有帮助,因为 [...]