过渡:从经典机器学习到深度学习
本节定位
这不是一篇新算法课,而是一页“过渡地图”。它的任务只有一个:让你从第 5 站进入第 6 站时,不会觉得像突然换了一门课。
学习目标
- 看清第 5 站和第 6 站到底是“断开”还是“递进”
- 理解为什么传统 ML 后面还需要学神经网络
- 看懂神经网络和传统模型在“数据、损失、优化、评估”上的共同骨架
- 为后面的神经元、反向传播、PyTorch 训练循环建立心智桥梁
先建立一张地图
很多新人学完第 5 站会有两个典型疑问:
- 既然线性回归、逻辑回归、树模型已经能做很多事,为什么还要学深度学习?
- 到了第 6 站,为什么一下子多了层、梯度、反向传播、PyTorch 这些新东西?
更稳的理解方式是先看这条演进线:
所以第 6 站不是推翻第 5 站,而是在第 5 站已经建立的建模思维上继续往前走。
一、第 5 站到底已经学会了什么
第 5 站真正教会你的,不只是几个模型名,而是下面这条建模主线:
- 先判断任务类型
- 先立 baseline
- 再选指标
- 再做改进
- 最后做错误分析和复盘
这些东西到了第 6 站并不会消失。
1.1 第 6 站真正新增的,不是“有没有评估”
很多人会误以为到了深度学习就是另一套逻辑。
其实不是。第 6 站仍然会做这些事:
- 还是要切训练集和验证集
- 还是要看 loss 和指标
- 还是要防过拟合
- 还是要做错误分析
真正新增的,是模型表示能力和训练方式。
二、为什么传统 ML 后面还要学神经网络
经典机器学习很强,但它也有一些很自然的边界。
2.1 传统 ML 更依赖“手工表示”
在第 5 站你已经反复做过这些事:
- 手工构造特征
- 做编码、缩放、筛选
- 想办法把问题整理成模型更容易学的形式
这件事非常重要,但也会带来一个限制:
- 模型的上限,很多时候会被你的特征设计能力卡住
2.2 深度学习更强调“自动学表示”
深度学习最强的一点,可以先朴素地理解成:
不只是学“怎么预测”,还在学“该怎么表示输入”。
比如:
- 图像里,CNN 会自己学边缘、纹理、局部模式
- 文本里,神经网络会自己学词向量、上下文表示
- 序列里,模型会自己学时间依赖或注意力关系
这就是第 6 站真正补上的能力。
2.3 一个简单对照
| 问题 | 第 5 站更常见做法 | 第 6 站更常见做法 |
|---|---|---|
| 图像分类 | 先手工提特征,再喂分类器 | 直接让 CNN 学特征 |
| 文本分类 | TF-IDF / 手工统计特征 | 让网 络学 embedding 和上下文 |
| 复杂非线性关系 | 试树模型、集成学习 | 让多层网络直接表达复杂函数 |
这不是说第 6 站一定“取代”第 5 站,而是:
- 数据简单、样本不大、表格任务强时,第 5 站的方法仍然非常有价值
- 数据复杂、非结构化、特征难手造时,第 6 站的方法优势会越来越明显
三、第 5 站和第 6 站的共同骨架其实没变
看起来第 6 站新词很多,但训练一轮模型的骨架,其实和第 5 站仍然是一条线:
你可以把它和第 5 站对应起来:
| 第 5 站 | 第 6 站 |
|---|---|
| 线性模型 / 树模型 | 神经网络 |
| 指标和损失 | 指标和损失 |
fit() 背后完成训练 | 你会更显式地看到训练循环 |
| 调参与评估 | 调参与评估 |
所以第 6 站变化最大的地方不是“有没有训练”,而是:
- 你开始更直观地看到训练过程是怎么一步步发生的