连接 Transformer 编码器和解码器以及掩码 作者: Stefania Cristina 发表于 2023年1月6日 所属分类: Attention 32 我们已经实现了 Transformer 编码器和解码器并分别进行了测试,现在我们可以将两者组合成一个完整的模型。我们还将了解如何创建填充和前瞻掩码,通过它们我们将抑制不被考虑的输入值 [...] 继续阅读
在 TensorFlow 和 Keras 中从零开始实现 Transformer 解码器 作者: Stefania Cristina 发表于 2023年1月6日 所属分类: Attention 15 Transformer 编码器和解码器之间有许多相似之处,例如它们都实现了多头注意力、层归一化,以及一个全连接的前馈网络作为它们的最终子层。在实现了 Transformer 编码器之后,我们现在将继续应用我们的知识来实现 Transformer 解码器,作为实现 [...] 的进一步一步。 继续阅读
注意力研究概览 作者: Stefania Cristina 发表于 2023年1月6日 所属分类: Attention 7 注意力是一个在多个学科中进行科学研究的概念,包括心理学、神经科学,以及最近的机器学习。虽然所有学科可能都对注意力产生了各自的定义,但它们都同意的一个核心特质是,注意力是一种使生物和人工神经网络系统更具灵活性的机制。在 [...] 继续阅读