指令微调(Instruction Tuning)是一种通过使用大量自然语言指令及其对应期望输出的数据集,对预训练大语言模型进行有监督的进一步训练,从而显著提升模型理解并遵循人类指令能力的关键技术。
可以将指令微调理解为对一位“知识渊博但未经训练”的学者进行“职业化”培训。预训练大语言模型在庞大数据集上学习,掌握了丰富的语言知识和世界知识,但它并不清楚用户具体希望它以何种方式、何种格式来运用这些知识。指令微调则提供了明确的“岗位培训”:它向模型展示成千上万对“指令-示范”样例,例如“总结以下文章:”配以一篇总结,或“将这句话翻译成法语:”配以翻译结果。通过这个过程,模型学习到两个核心能力:一是准确解析用户指令的意图(是总结、翻译、创作还是推理),二是生成符合指令要求的、格式规范的输出。其本质是激发并引导模型在预训练阶段已具备的潜在能力,使其行为与人类期望对齐。

预训练(Pre-training) |
监督微调(Supervised Fine-Tuning, SFT) |
提示工程(Prompt Engineering) |
人类反馈强化学习(RLHF) |
对齐(Alignment)

若想深入了解指令微调,可关注其里程碑式的研究论文《Finetuned Language Models Are Zero-Shot Learners》。该论文提出的“FLAN”模型系列首次系统性地展示了指令微调如何赋予模型强大的零样本任务泛化能力。此外,探索如“Alpaca”、“Vicuna”等开源指令微调项目及其数据集,能帮助理解实践中的具体方法与挑战。

