反向传播是一种通过计算损失函数对神经网络中所有权重参数的梯度,并利用梯度下降法迭代更新这些参数,从而使网络输出逼近预期目标的监督学习算法。 它是现代深度学习得以高效训练的基石,常被简称为“Backprop”或BP算法。
可以将反向传播的工作原理类比为一份工作成果的复盘与责任追溯。假设一个团队(神经网络)共同完成一个项目(处理输入数据),最终产出结果(预测输出)与理想目标(真实标签)存在差距(损失函数)。

反向传播的过程分为两大阶段:

这个过程反复进行,如同根据成品瑕疵逆向检查每个生产环节的责任,并针对性改进工艺,从而使最终成品质量不断提升。

作为神经网络训练的通用优化框架,反向传播的应用几乎覆盖所有深度学习领域:

理解反向传播,常需关联以下概念:梯度下降、链式法则、损失函数、优化器、正向传播以及计算图。

若想深入理解其数学本质,推荐阅读Ian Goodfellow等人所著的《深度学习》(“Deep Learning”)教材中关于反向传播的章节。此外,观看关于“计算图”和“自动微分”的专题讲解视频,能帮助直观理解梯度是如何被自动且高效地计算出来的。