偏导数与梯度:多变量的变化方向

学习目标
- 理解偏导数——固定其他变量,看一个变量的影响
- 理解梯度——所有偏导数组成的向量,指向"上升最快"的方向
- 可视化三维曲面上的梯度
- 理解梯度在神经网络训练中的核心作用
新人先掌握 / 进阶再理解
如果你是第一次学这节,不需要马上熟练推导复杂函数。新人先掌握三句话就够了:偏导数是“只动一个变量看影响”,梯度是“把所有偏导数组成方向”,负梯度是“让损失下降最快的方向”。
如果你已经有一点数学基础,可以进一步关注:为什么梯度方向和等高线垂直、为什么学习率会影响沿负梯度走的效果、以及 PyTorch 的 loss.backward() 本质上在帮你自动计算哪些偏导。
先说一个很重要的学习预期
这一节是很多新人第一次觉得“数学开始真的有点难”的地方。
但这里最重要的,不是一下子把多元微积分全吃透,而是先看懂:
- 单变量导数为什么会自然升级成偏导数
- 梯度为什么会把“很多个变化率”打包成一个方向
- 为什么它会直接决定模型参数怎么调