首页
学习
活动
专区
圈层
工具
发布
社区首页 >专栏 >人工智能之语言领域 自然语言处理 第十四章 预训练模型

人工智能之语言领域 自然语言处理 第十四章 预训练模型

作者头像
咚咚王
发布2026-03-17 20:05:56
发布2026-03-17 20:05:56
1070
举报
概述
预训练模型(Pre-trained Models, PTMs)是自然语言处理(NLP)近十年来最重大的技术突破之一。它们通过在大规模无标注语料上进行自监督学习,获得通用的语言理解与生成能力,再通过微调(Fine-tuning) 快速适配下游任务。从 ELMo、GPT 到 BERT、T5,预训练模型彻底改变了 NLP 的研发范式。本章将系统讲解预训练模型的发展脉络、核心思想、分类体系、训练任务与微调

原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。

如有侵权,请联系 cloudcommunity@tencent.com 删除。

原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。

如有侵权,请联系 cloudcommunity@tencent.com 删除。

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档