Few-shot学习(Few-shot Learning)是机器学习的一个分支,其核心目标是让模型在仅接触极少量(通常为几个到几十个)新任务样本的情况下,快速学习并完成该任务。它旨在模拟人类从少量示例中举一反三、快速学习新概念的能力,是解决传统深度学习模型依赖海量标注数据这一瓶颈的关键技术方向。
Few-shot学习的工作原理可以类比为一个经验丰富的语言学家学习一门新语言。这位语言学家已经掌握了数十种语言的语法和词汇(即“先验知识”)。当他拿到一本新语言的、只有几个例句的短语手册(即“支持集”)时,他不会从零开始,而是迅速将新语言的句子结构与已知语言进行对比和匹配,找出规律,从而快速理解并生成新的句子(即“查询集”的预测)。

技术上,这一过程通常通过“元学习”框架实现。模型在训练阶段并非学习解决某个具体任务,而是学习“如何快速学习”。它会在大量不同的“小任务”上进行演练,每个小任务都模拟了Few-shot场景。通过这种方式,模型学会提取对任务迁移至关重要的通用特征和比较方法,从而在面对全新的、样本极少的具体任务时,能通过计算新样本与少数示例之间的相似度或快速微调少量参数来做出准确判断。

理解Few-shot学习,可关联以下概念:其更极端的形态是 Zero-shot学习(无需任何示例)和 One-shot学习(仅需一个示例);其背后的核心方法论常是 元学习;而与之相对的传统范式则是 监督学习。实现Few-shot学习的一种常见技术路径是 度量学习。

若想深入了解,建议从经典论文《Model-Agnostic Meta-Learning for Fast Adaptation of Deep Networks》入手,了解元学习如何赋能Few-shot学习。同时,可以关注对比学习、提示学习等新兴技术与Few-shot学习的结合,这些是当前提升小样本泛化能力的研究热点。

