连接 Transformer 编码器和解码器以及掩码 作者: Stefania Cristina 于 2023 年 1 月 6 日 在 注意力 32 我们已经实现了 Transformer 编码器和解码器,并分别进行了测试,现在可以将它们连接起来形成一个完整的模型。我们还将学习如何创建填充和前瞻掩码,通过它们来抑制不会在 [...] 中考虑的输入值。 继续阅读
在 TensorFlow 和 Keras 中从零开始实现 Transformer 编码器 作者: Stefania Cristina 于 2023 年 1 月 6 日 在 注意力 5 在了解了如何实现缩放点积注意力并将其集成到 Transformer 模型的多头注意力中之后,让我们再进一步,通过应用其编码器来实现完整的 Transformer 模型。我们的最终目标仍然是将完整模型应用于自然语言处理 (NLP)。在本教程中,您将发现如何 [...] 继续阅读
注意力研究概览 作者: Stefania Cristina 于 2023 年 1 月 6 日 在 注意力 7 注意力是跨多个学科(包括心理学、神经科学和最近的机器学习)进行科学研究的概念。尽管所有学科可能都对注意力有自己的定义,但它们都可以同意的一个核心质量是,注意力是使生物和人工神经网络系统更具灵活性的机制。在 [...] 继续阅读