语言翻译是自然语言处理中最重要的任务之一。在本教程中,您将学习如何使用 T5(Text-to-Text Transfer Transformer)模型和 Hugging Face Transformers 库来实现强大的多语言翻译系统。在本教程结束时,您将能够构建一个可用于生产环境的翻译系统……

语言翻译是自然语言处理中最重要的任务之一。在本教程中,您将学习如何使用 T5(Text-to-Text Transfer Transformer)模型和 Hugging Face Transformers 库来实现强大的多语言翻译系统。在本教程结束时,您将能够构建一个可用于生产环境的翻译系统……
问答(Question Answering)是一项关键的自然语言处理任务,它使机器能够通过从给定上下文中提取相关信息来理解和响应人类问题。DistilBERT 是 BERT 的一个精简版本,在构建问答系统方面,在性能和计算效率之间提供了极佳的平衡。在本教程中,您将学习如何构建……
DistilBart 是一个典型的用于 NLP 任务的编码器-解码器模型。在本教程中,您将学习此类模型的构建方式以及如何检查其架构,以便您可以将其与其他模型进行比较。您还将学习如何使用预训练的 DistilBart 模型来生成摘要以及如何控制……
文本摘要代表了文本生成的复杂演变,需要对内容和上下文有深刻的理解。借助 DistilBart 等编码器-解码器 Transformer 模型,您现在可以生成捕捉较长文本本质,同时保持连贯性和相关性的摘要。在本教程中,您将发现如何使用 DistilBart 实现文本摘要。您将通过……
文本生成是深度学习中最迷人的应用之一。随着 GPT-2 等大型语言模型的出现,我们现在可以生成连贯、上下文相关且出奇地富有创意的类人文本。在本教程中,您将发现如何使用 GPT-2 实现文本生成。您将通过您可以运行的实际示例来学习……
为初学者生成乱码文本是一个简单的编程练习。但是,有意义地完成句子则需要大量的工作。随着神经方法的引入,自动补全技术的格局发生了巨大的变化。借助 Hugging Face 的 Transformers 库,实现文本补全只需要几行代码。在本全面的教程中,您……
命名实体识别(NER)是自然语言理解的基础构建块之一。当人类阅读文本时,我们会根据上下文和世界知识自然地识别和分类命名实体。例如,在句子“微软首席执行官 Satya Nadella 在西雅图的一次会议上发表了讲话”中,我们轻松地识别出组织、个人和地理……
BERT 模型是 Transformer 在自然语言处理(NLP)领域的第一个应用之一。它的架构很简单,但足以完成其预定任务。接下来,我们将从头开始探索 BERT 模型——了解它们是什么、它们如何工作,以及最重要的是,如何……
随着神经网络在机器学习领域日益普及,理解激活函数在其实施中所起的作用至关重要。在本文中,您将探索应用于神经网络中每个神经元输出以在模型中引入非线性性的激活函数概念。……
逻辑回归是一种预测事件发生概率的回归类型。它用于分类问题,在机器学习、人工智能和数据挖掘领域有许多应用。逻辑回归的公式是将一个 sigmoid 函数应用于线性函数的输出。本文……