大模型学习机文本生成模型微调最佳实践 2.由于huggingface.io网站访问受限, 学习机在启动服务时需要检查是否在启动脚本run.sh里写入了export HF_HUB_OFFLINE=1, 否则在训练启动和结束时都会自动访问huggingface网站导致超时失败。3.完成训练后的基础模型已经被训练影响, 需要重新reload一次基础模型以恢复初始状态。 (5) 加载微调过的模型 完成训练后, LoRA小模型会被保存到/root/text-generation-webui/loras目录下。