存档 | Transformer 模型构建

ye-min-htet-uEFxAxZwyBs-unsplash

多头注意力(Multi-Head Attention)和分组查询注意力(Grouped-Query Attention)的初步介绍

语言模型需要理解序列中单词之间的关系,无论它们之间的距离如何。本文将探讨注意力机制如何实现这一能力,以及它们在现代语言模型中的各种实现方式。让我们开始吧。概述本文分为三个部分;它们是:为何需要注意力注意力操作多头注意力 (MHA) […]

继续阅读
svetlana-gumerova-6fAgnT3Dhl4-unsplash

Transformer模型中的位置编码

Transformer 模型通过其强大的架构彻底改变了自然语言处理 (NLP)。虽然最初的 Transformer 论文引入了完整的编码器-解码器模型,但为了实现不同的目的,也出现了该架构的变体。在本文中,我们将探讨不同类型的 Transformer 模型及其应用。让我们开始吧。概述本文分为 […]

继续阅读
pexels-satoshi-3322920

语言模型中的词嵌入

自然语言处理 (NLP) 长期以来一直是计算机科学中的一个基本领域。然而,随着词嵌入的引入,其发展轨迹发生了巨大变化。在词嵌入之前,NLP 主要依赖于将单词视为离散标记的基于规则的方法。通过词嵌入,计算机获得了通过向量空间表示来理解语言的能力。在本文中, […]

继续阅读
pexels-belle-co-99483-402028

语言模型中的分词器 (Tokenizers)

Tokenization 是自然语言处理 (NLP) 中的一个关键预处理步骤,它将原始文本转换为语言模型可以处理的标记。现代语言模型使用复杂的 Tokenization 算法来处理人类语言的复杂性。在本文中,我们将探讨现代 LLM 中使用的常见 Tokenization 算法、它们的实现方式以及 […]

继续阅读
pexels-stephan-streuders-2134979-3767837

Transformer 模型中的编码器和解码器

Transformer 模型通过其强大的架构彻底改变了自然语言处理 (NLP)。虽然最初的 Transformer 论文引入了完整的编码器-解码器模型,但为了实现不同的目的,也出现了该架构的变体。在本文中,我们将探讨不同类型的 Transformer 模型及其应用。让我们开始吧。概述本文分为 […]

继续阅读

Machine Learning Mastery 是 Guiding Tech Media 的一部分,Guiding Tech Media 是一家领先的数字媒体出版商,专注于帮助人们了解技术。访问我们的公司网站以了解更多关于我们的使命和团队的信息。