标签档案 | 自然语言处理

karsten-wurth-algc0FKHeMA-unsplash

Transformer 模型推理

我们已经了解了如何在英语和德语句子对数据集上训练 Transformer 模型,以及如何绘制训练和验证损失曲线以诊断模型的学习性能,并决定在哪个时期对训练好的模型进行推理。我们现在准备对 […]

继续阅读
training_cover

训练 Transformer 模型

我们已经组装了完整的 Transformer 模型,现在我们准备对其进行神经机器翻译训练。我们将为此目的使用一个训练数据集,其中包含简短的英语和德语句子对。我们还将重新审视在训练过程中计算准确性和损失指标时掩码的作用 […]

继续阅读
attention_mechanism_cover

从零开始的注意力机制

引入注意力机制是为了提高用于机器翻译的编码器-解码器模型的性能。注意力机制背后的思想是允许解码器以灵活的方式利用输入序列最相关的部分,通过所有编码输入向量的加权组合,其中最相关的 […]

继续阅读
attention_research_cover

注意力研究概览

注意力是一个在多个学科中进行科学研究的概念,包括心理学、神经科学以及最近的机器学习。尽管所有学科都可能对注意力提出了自己的定义,但它们都同意的一个核心品质是,注意力是一种使生物和人工神经网络系统更灵活的机制。在 […]

继续阅读

Machine Learning Mastery 是 Guiding Tech Media 的一部分,Guiding Tech Media 是一家领先的数字媒体出版商,专注于帮助人们了解技术。访问我们的公司网站以了解更多关于我们的使命和团队的信息。