暂无搜索历史
本章通过两个工业级 NLP 项目——智能客服问答系统与多模态图文内容生成系统,整合全书所学知识:从需求分析、架构设计、模型选型,到工程实现与部署。我们将采用模块...
在自然语言处理(NLP)项目中,“数据决定上限,模型决定下限”。高质量、大规模、标注精准的数据是构建高性能 NLP 系统的前提。本章将系统介绍 NLP 项目全生...
深度学习框架是构建自然语言处理(NLP)模型的基础设施。目前,TensorFlow/Keras 与 PyTorch 是两大主流选择,它们在设计理念、开发体验和部...
自然语言处理(NLP)的工程落地离不开强大而丰富的 Python 生态系统。从基础数据处理、文本清洗,到词向量训练、预训练模型微调,Python 提供了覆盖全流...
随着人工智能从“单模态感知”迈向“多模态认知”,多模态预训练模型(Multimodal Pre-trained Models) 成为连接语言、视觉、听觉等信息的...
生成式预训练模型(Generative Pre-trained Models)是自然语言处理(NLP)迈向通用人工智能的关键一步。与仅能“理解”语言的判别式模型...
BERT(Bidirectional Encoder Representations from Transformers)是自然语言处理(NLP)领域具有里程碑...
预训练模型(Pre-trained Models, PTMs)是自然语言处理(NLP)近十年来最重大的技术突破之一。它们通过在大规模无标注语料上进行自监督学习,...
在自然语言处理(NLP)中,序列到序列(Seq2Seq)模型是用于将一个序列映射到另一个序列的框架。它们被广泛应用于各种任务,如机器翻译、文本摘要和对话系统等。...
Transformer 是自然语言处理(NLP)领域的革命性架构,由 Google 在 2017 年论文《Attention Is All You Need》中...
注意力机制(Attention Mechanism)是自然语言处理(NLP)近十年来最具影响力的突破之一,它模拟人类“聚焦关键信息”的认知过程,使模型能够动态地...
循环神经网络(Recurrent Neural Network, RNN)是专为处理序列数据而设计的神经网络架构,在自然语言处理(NLP)发展史上具有里程碑意义...
文本相似度计算是自然语言处理(NLP)中一项基础而关键的技术,旨在量化两段文本在语义或形式上的接近程度。它是智能搜索、问答系统、推荐引擎、抄袭检测等应用的核心支...
关系抽取(Relation Extraction, RE)属于自然语言处理中信息抽取范畴,可以从非结构化文本中自动识别两个或多个实体之间的语义关系。它是构建知识...
命名实体识别(Named Entity Recognition, NER)是自然语言处理(NLP)中一项基础而关键的信息抽取任务,其目标是从非结构化文本中自动识...
情感分析(Sentiment Analysis),又称意见挖掘(Opinion Mining),旨在自动识别和提取文本中表达的主观情感、态度或情绪。从用户评论到...
📌 注意:本章标题“计算机视觉 详细介绍第5章 文本分类”存在学科混淆。 文本分类(Text Classification)属于自然语言处理(NLP)领域,而非...
在自然语言处理(NLP)中,文本表示是将人类可读的语言转化为计算机可计算的数值形式的核心步骤。没有合适的表示,模型就无法“理解”语言。本章将系统介绍从传统离散表...
文本预处理是自然语言处理(NLP)流程中的基石环节。原始文本往往包含噪声、格式混乱、语言差异等问题,若不经过清洗和规范化,会严重影响后续模型的性能。本章将系统介...
自然语言处理(NLP)虽是计算机科学的分支,但其根基深深扎在语言学之中。无论是分词、句法分析,还是语义理解,都离不开对人类语言结构规律的认知。本章将系统介绍 N...
暂未填写个人网址