档案 | 长短期记忆网络

LSTM Autoencoder Model With Two Decoders

LSTM自编码器简明介绍

LSTM自编码器是一种使用编码器-解码器LSTM架构实现的序列数据自编码器。一旦拟合完成,模型的编码器部分可用于编码或压缩序列数据,这些数据反过来又可用于数据可视化或作为监督学习模型的特征向量输入。在 [...]

继续阅读
How to Develop an Encoder-Decoder Model for Sequence-to-Sequence Prediction in Keras

如何在Keras中开发用于序列到序列预测的编码器-解码器模型

编码器-解码器模型为使用循环神经网络解决具有挑战性的序列到序列预测问题(如机器翻译)提供了一种模式。编码器-解码器模型可以在Keras Python深度学习库中开发,Keras博客上已描述了一个使用此模型开发的神经机器翻译系统示例,并提供了示例 [...]

继续阅读
Gentle Introduction to Global Attention for Encoder-Decoder Recurrent Neural Networks

循环神经网络编码器-解码器的全局注意力机制简明介绍

编码器-解码器模型为使用循环神经网络解决具有挑战性的序列到序列预测问题(如机器翻译)提供了一种模式。注意力机制是编码器-解码器模型的扩展,可以提高该方法在处理更长序列时的性能。全局注意力是注意力机制的一种简化,可能更容易在声明式深度 [...] 中实现。

继续阅读
Understand the Difference Between Return Sequences and Return States for LSTMs in Keras

Keras中LSTM的Return Sequences和Return States之间的区别

Keras深度学习库提供了长短期记忆(LSTM)循环神经网络的实现。作为此实现的一部分,Keras API提供了对返回序列(return sequences)和返回状态(return state)的访问。在设计复杂的循环神经网络模型时,例如[...],这些数据的使用和区别可能会令人困惑。

继续阅读
Gentle Introduction to Making Predictions with Sequences

用序列进行预测

序列预测不同于其他类型的监督学习问题。序列对观测值施加了顺序,在训练模型和进行预测时必须保留这种顺序。通常,涉及序列数据的预测问题被称为序列预测问题,尽管有一系列问题因 [...] 的不同而有所差异。

继续阅读

Machine Learning Mastery 是 Guiding Tech Media 的一部分,Guiding Tech Media 是一家领先的数字媒体出版商,专注于帮助人们了解技术。访问我们的公司网站以了解更多关于我们的使命和团队的信息。