在上一篇文章中,笔者简要总结了目前开源的中文LLaMA模型,本篇是以比较过后选择的TencentPretrain框架作为基座,使用开源语料训练和部署中文LLaMA领域模型的过程TencentPretrain 这一阶段的训练可以在TencentPretrain中使用现成的代码来完成:首先下载基础模型和训练框架,可以使用已经在中文上训练过的Chinese-LLaMA,以7B模型为例:git clone http ://git clone https://huggingface.co/Linly-AI/ChatFlow-7Bgit clone GitHub - Tencent/TencentPretrain: Tencent Pre-training framework in PyTorch & Pre-trained Model ZooGitHub - Tencent/TencentPretrain: Tencent 经过领域训练和指令精调的Lawyer LLaMA效果如图所示,其中BELLE是通用问答模型:图片指令精调通用可以直接使用TencentPretrain进行训练:基于增量增量训练后的模型,准备指令数据集并预处理
在我们的平台中,这一过程被彻底重构:技术实现路径:智能采集:利用腾讯会议AI的实时语音转写能力,将需求讨论会议自动转为结构化文本语义理解:通过微调后的NLP模型(如TencentPretrain),自动识别对话中的功能需求