作者归档 | Adrian Tam

ye-min-htet-uEFxAxZwyBs-unsplash

多头注意力(Multi-Head Attention)和分组查询注意力(Grouped-Query Attention)的初步介绍

语言模型需要理解序列中单词之间的关系,无论它们相距多远。本文将探讨注意力机制如何实现这一功能,以及它们在现代语言模型中的各种实现方式。让我们开始吧。概述 本文分为三个部分:为什么需要注意力 注意力操作 多头注意力 (MHA) […]

继续阅读
svetlana-gumerova-6fAgnT3Dhl4-unsplash

Transformer模型中的位置编码

自然语言处理 (NLP) 随着基于 Transformer 的模型而得到了显著发展。这些模型的一个关键创新是位置编码,它有助于捕捉语言的顺序性。在本文中,您将学习:为什么 Transformer 模型需要位置编码 不同类型的位置编码及其特性 如何实现各种位置 […]

继续阅读
pexels-satoshi-3322920

语言模型中的词嵌入

自然语言处理 (NLP) 长期以来一直是计算机科学中的一个基础领域。然而,随着词嵌入的引入,其发展轨迹发生了戏剧性的改变。在词嵌入出现之前,NLP 主要依赖于基于规则的方法,将单词视为离散的标记。通过词嵌入,计算机获得了通过向量空间表示理解语言的能力。在本文中, […]

继续阅读
pexels-belle-co-99483-402028

语言模型中的分词器 (Tokenizers)

分词 (Tokenization) 是自然语言处理 (NLP) 中一个至关重要的预处理步骤,它将原始文本转换为语言模型可以处理的标记。现代语言模型使用复杂的分词算法来处理人类语言的复杂性。在本文中,我们将探讨现代 LLM 中常用的分词算法、它们的实现以及如何 […]

继续阅读
pexels-stephan-streuders-2134979-3767837

Transformer 模型中的编码器和解码器

Transformer 模型凭借其强大的架构革新了自然语言处理 (NLP)。虽然原始的 Transformer 论文引入了完整的编码器-解码器模型,但为了服务于不同的目的,也出现了该架构的变体。在本文中,我们将探讨不同类型的 Transformer 模型及其应用。让我们开始吧。概述 本文分为 […]

继续阅读
sdl-sanjaya-2rQoMZLVXHc-unsplash

Transformers 库温和入门

Transformers 是一种机器学习模型架构,它使用注意力机制来处理数据。许多模型都基于这种架构,例如 GPT、BERT、T5 和 Llama。其中很多模型彼此之间都非常相似。虽然您可以使用 PyTorch 或 TensorFlow 在 Python 中构建自己的模型,但 Hugging Face 发布了 […]

继续阅读

Machine Learning Mastery 是 Guiding Tech Media 的一部分,Guiding Tech Media 是一家领先的数字媒体出版商,专注于帮助人们了解技术。访问我们的公司网站以了解更多关于我们的使命和团队的信息。