Luong 注意力机制 作者: Stefania Cristina 于 2023年1月6日 发布于 Attention 10 Luong 注意力机制旨在对 Bahdanau 模型在神经网络机器翻译方面进行多项改进,特别是引入了两种新的注意力机制:一种全局方法,它关注所有源单词;一种局部方法,它在预测目标句子时仅关注选定的单词子集。在本教程中, […] 继续阅读
Bahdanau 注意力机制 作者: Stefania Cristina 于 2023年1月6日 发布于 Attention 7 传统的机器翻译编码器-解码器架构将每个源句子编码成一个固定长度的向量,无论其长度如何,然后解码器从中生成翻译。这使得神经网络难以处理长句子,基本上导致了性能瓶颈。Bahdanau 注意力机制被提出用于解决性能 [...] 继续阅读