大模型学习机文本生成模型微调最佳实践 本文向您介绍如何使用大模型学习机的文本生成模型微调。 说明 模型训练涉及到较多的专业知识, 这里以Llama 2的LoRA微调为例给出一版示例。 1. 模型微调简介 由于基础大模型参数量极多, 训练需要的资源量极大, 因此基于基础大模型进行微调的小模型应运而生。 LoRA技术便是其中最主流的一种。 LoRA小模型无法独立使用, 需要在加载完基础大模型后再进行加载, 对基础大模型的能力进行扩展。 已有LoRA模型如何加载可参考文本生成模型使用最佳实践。 (1) 准备训练数据 支持多种格式, 主要分为格式化数据与原始文本数据。 格式化数据以alpacachatformat为例, 数据以json方式进行组织, 每条数据分为instruction,input, output三个部分。 原始文本数据直接将文章或对话的原文作为输入, 框架自动进行切分和训练。 下面以普通txt文本文件为例, 介绍后续训练过程。 (2) 上传数据到云主机 windows系统使用命令提示符, macos/linux系统使用终端, 执行scp命令将数据文件上传到云主机的/root/textgenerationwebui/training/datasets目录下。 scp [本机文件路径] root@[ip]:/root/textgenerationwebui/training/datasets