跳到主要内容

学前导读:概率与统计这章到底在学什么

对新人来说,这一章最容易出现的问题不是“公式不会算”,而是学着学着不知道这些概念到底和 AI 有什么关系。

这一章其实在解决同一件事:

当世界充满不确定性时,我们怎样描述不确定、怎样从数据反推规律、怎样衡量模型到底有多确定。

学习目标

  • 建立“概率 -> 分布 -> 推断 -> 信息论”的整章地图
  • 知道这一章每节课在 AI 里的位置
  • 知道新人应该先抓哪些直觉,再看公式

一、这一章四节之间是什么关系?

你可以把这一章记成四个问题:

  1. 概率基础:某件事发生的可能性有多大?
  2. 概率分布:如果不是一次事件,而是一整类随机现象,它整体长什么样?
  3. 统计推断:看到了数据,怎样反推出背后的参数和结论?
  4. 信息论:模型的预测到底有多不确定、和真实分布差多远?

二、这一章和 AI 的关系

章节在 AI 里最直接的作用
概率基础分类概率、贝叶斯更新、垃圾邮件判断
概率分布正态分布、噪声建模、随机初始化、数据统计
统计推断MLE、MAP、A/B 测试、参数估计
信息论熵、交叉熵、KL 散度、分类损失函数

很多 AI 名词如果只背表面,会很散;但一旦放回这条主线就会清楚很多。

例如:

  • 模型输出 0.93,其实是在给一个概率
  • CrossEntropyLoss 其实来自信息论
  • MLE 其实是在做“什么参数最能解释这批数据”
  • 贝叶斯 其实是在做“有了新证据后,怎样更新判断”

三、新人最应该怎么学这一章?

3.1 先学直觉,不先死磕符号

比如:

  • 条件概率先想“已知某件事发生后,再看另一件事的概率”
  • 分布先想“随机现象整体长什么样”
  • MLE 先想“哪个参数最能解释观测数据”
  • 熵先想“到底有多不确定”

3.2 每个概念都要连回一个 AI 场景

如果你学完一个概念,回答不出“它在 AI 里用来干嘛”,那它大概率还没有真正进入你的理解。

3.3 不用追求一次全会

这一章很多内容在后面会反复出现:

  • 第四阶段会继续碰到概率和统计推断
  • 第五阶段以后会继续碰到梯度、损失和优化
  • 第七、第八阶段会继续碰到交叉熵、KL 散度、贝叶斯视角

所以这章更重要的是先建立第一次清晰理解。


四、学完这章后,你至少应该会什么?

  • 看到一个模型概率输出时,不会把它当成“绝对结论”
  • 知道条件概率、贝叶斯更新和分布各自是在说什么
  • 知道 MLE、MAP、假设检验大概在解决什么问题
  • 知道熵、交叉熵和 KL 散度为什么会出现在 AI 训练里