咚咚王
人工智能之语言领域 自然语言处理 第十四章 预训练模型
原创
关注作者
腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
咚咚王
社区首页
>
专栏
>
人工智能之语言领域 自然语言处理 第十四章 预训练模型
人工智能之语言领域 自然语言处理 第十四章 预训练模型
咚咚王
关注
发布于 2026-03-17 20:05:56
发布于 2026-03-17 20:05:56
107
0
举报
概述
预训练模型(Pre-trained Models, PTMs)是自然语言处理(NLP)近十年来最重大的技术突破之一。它们通过在大规模无标注语料上进行自监督学习,获得通用的语言理解与生成能力,再通过微调(Fine-tuning) 快速适配下游任务。从 ELMo、GPT 到 BERT、T5,预训练模型彻底改变了 NLP 的研发范式。本章将系统讲解预训练模型的发展脉络、核心思想、分类体系、训练任务与微调
文章被收录于专栏:
人工智能之语言领域
人工智能之语言领域
原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。
如有侵权,请联系
cloudcommunity@tencent.com
删除。
自然语言处理
人工智能
原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。
如有侵权,请联系
cloudcommunity@tencent.com
删除。
自然语言处理
人工智能
评论
登录
后参与评论
0 条评论
热度
最新
推荐阅读
领券
问题归档
专栏文章
快讯文章归档
关键词归档
开发者手册归档
开发者手册 Section 归档
0
0
0
推荐