使用手册
约 421 字大约 1 分钟
2025-03-16
官方介绍
如何使用
安装
重要
此步骤为必需,建议使用虚拟环境安装避免不同项目包冲突
git clone --depth 1 https://github.com/hiyouga/LLaMA-Factory.git
cd LLaMA-Factory
pip install -e ".[torch,metrics]"数据准备
数据集文件的格式:规范文档
你可以使用 HuggingFace / ModelScope / Modelers 上的数据集或加载本地数据集
注
当你使用自定义数据集时,请更新data/dataset_info.json文件
快速开始
下面三行命令分别对Llama3-8B-Instruct模型进行LoRA微调、推理和合并
llamafactory-cli train examples/train_lora/llama3_lora_sft.yaml
llamafactory-cli chat examples/inference/llama3_lora_sft.yaml
llamafactory-cli export examples/merge_lora/llama3_lora_sft.yaml可视化微调
LLaMA Board可视化微调(由Gradio驱动):
llamafactory-cli webui高级用法(包括多 GPU 微调)
模型下载
从魔搭社区下载
export USE_MODELSCOPE_HUB=1 # Windows 使用 `set USE_MODELSCOPE_HUB=1`将 model_name_or_path 设置为模型 ID 来加载对应的模型。在魔搭社区查看所有可用的模型,例如 LLM-Research/Meta-Llama-3-8B-Instruct
从魔乐社区下载
export USE_OPENMIND_HUB=1 # Windows 使用 `set USE_OPENMIND_HUB=1`将 model_name_or_path 设置为模型 ID 来加载对应的模型。在魔乐社区查看所有可用的模型,例如 TeleAI/TeleChat-7B-pt
硬件依赖估算值
| 方法 | 精度 | 7B | 14B | 30B | 70B | xB |
|---|---|---|---|---|---|---|
| Full (bf16 or fp16) | 32 | 120GB | 240GB | 600GB | 1200GB | 18xGB |
| Full (pure_bf16) | 16 | 60GB | 120GB | 300GB | 600GB | 8xGB |
| Freeze/LoRA/GaLore/APOLLO/BAdam | 16 | 16GB | 32GB | 64GB | 160GB | 2xGB |
| QLoRA | 8 | 10GB | 20GB | 40GB | 80GB | xGB |
| QLoRA | 4 | 6GB | 12GB | 24GB | 48GB | x/2GB |
| QLoRA | 2 | 4GB | 8GB | 16GB | 24GB | x/4GB |

