重要
此功能在 Beta 版中。
本页提供了使用无服务器 GPU 计算微调大型语言模型(LLM)的笔记本示例。 这些示例演示了各种微调方法,包括 Low-Rank 适应(LoRA)和完全监督的微调等参数高效方法。
微调 Qwen2-0.5B 模型
下面的笔记本提供有关如何使用以下命令有效地微调 Qwen2-0.5B 模型的示例:
- 用于监督微调的转换器强化学习 (TRL)
- 用于内存高效训练的Liger内核,结合了优化的Triton内核。
- 用于参数高效微调的 LoRA。
Notebook
微调 Llama-3.2-3B 与 Unsloth
此笔记本演示如何使用 Unsloth 库微调 Llama-3.2-3B。
Unsloth Llama
视频演示
此视频详细介绍笔记本(12 分钟)。
使用 DeepSpeed 和 TRL 进行监督式微调
此笔记本演示如何使用无服务器 GPU Python API 通过具有 DeepSpeed ZeRO 阶段 3 优化的 转换器强化学习(TRL)库 运行监督式微调(SFT)。