问答 (Q&A) 是自然语言处理的标志性实际应用之一。在之前的文章中,你已经了解了如何使用 transformers 库构建管道来使用 DistilBERT 进行问答。在这篇文章中,你将深入探讨技术细节,了解如何操作问题 […]

问答 (Q&A) 是自然语言处理的标志性实际应用之一。在之前的文章中,你已经了解了如何使用 transformers 库构建管道来使用 DistilBERT 进行问答。在这篇文章中,你将深入探讨技术细节,了解如何操作问题 […]
语言翻译是自然语言处理中最重要的任务之一。在本教程中,你将学习如何使用 T5(Text-to-Text Transfer Transformer)模型和 Hugging Face Transformers 库实现强大的多语言翻译系统。学完本教程后,你将能够构建一个生产就绪的翻译系统 […]
问答是一项至关重要的自然语言处理任务,它使机器能够通过从给定上下文中提取相关信息来理解和回应人类问题。DistilBERT 是 BERT 的精简版,在性能和计算效率之间提供了出色的平衡,适用于构建问答系统。在本教程中,你将学习如何构建 […]
Transformers 是一种机器学习模型架构,它使用注意力机制来处理数据。许多模型都基于这种架构,例如 GPT、BERT、T5 和 Llama。这些模型彼此之间有很多相似之处。虽然你可以使用 PyTorch 或 TensorFlow 在 Python 中构建自己的模型,但 Hugging Face 发布了 […]
DistilBart 是一个典型的用于 NLP 任务的编码器-解码器模型。在本教程中,你将学习如何构建这样的模型以及如何检查其架构,以便将其与其他模型进行比较。你还将学习如何使用预训练的 DistilBart 模型生成摘要以及如何控制 […]
文本摘要代表了文本生成的复杂演进,需要对内容和上下文有深刻的理解。借助 DistilBart 等编码器-解码器 Transformer 模型,你现在可以创建能够捕捉较长文本精髓,同时保持连贯性和相关性的摘要。在本教程中,你将了解如何使用 DistilBart 实现文本摘要。你将通过 […]
文本生成是深度学习最迷人的应用之一。随着 GPT-2 等大型语言模型的出现,我们现在可以生成连贯、上下文相关且出奇地富有创造力的人类文本。在本教程中,你将了解如何使用 GPT-2 实现文本生成。你将通过可以运行的动手示例进行学习 […]
生成无意义文本是初学者的简单编程练习。但有意义地完成一个句子需要大量工作。随着神经方法的引入,自动补全技术的格局发生了巨大变化。借助 Hugging Face 的 transformers 库,实现文本补全只需几行代码。在这个全面的教程中,你将 […]
命名实体识别 (NER) 是自然语言理解的基本组成部分之一。当人类阅读文本时,我们会根据上下文和世界知识自然地识别和分类命名实体。例如,在句子“微软 CEO 萨蒂亚·纳德拉在西雅图的一次会议上发表讲话”中,我们可以毫不费力地识别出组织、个人和地理 […]
BERT 模型是自然语言处理 (NLP) 中首批 Transformer 应用之一。其架构简单,但足以完成其预期任务。接下来,我们将从头开始探索 BERT 模型——理解它们是什么、它们如何工作,以及最重要的是,如何 […]