Skip to main content

A.3 AI 发展史:15 个阶段与关键论文

AI 15 阶段发展史地图

这一页是可选背景材料。它的作用是回答“这个概念从哪里来”,不是让你第一遍就背论文名。

建议按这个顺序使用:

  1. 先看 15 阶段总图。
  2. 快速扫一遍阶段表。
  3. 只挑当前章节相关的阶段看。
  4. 以后遇到论文名或算法名时再回来查。

15 阶段地图

阶段新人理解对应课程
1. AI 问题被提出机器能不能表现出智能导学
2. 符号主义 AI人写规则,机器按规则推理背景知识
3. 专家系统把领域知识写成规则软件系统思维
4. 概率与统计不只靠固定规则,也用证据和不确定性判断第 4 章
5. 经典机器学习从数据和特征里学习规律第 5 章
6. 早期神经网络模型开始学习简单决策边界第 5-6 章
7. 反向传播多层神经网络真正可训练第 6 章
8. 核方法与集成学习SVM、树、森林、Boosting 让 ML 更实用第 5 章
9. 深度学习突破数据 + GPU + 深层网络打开视觉和语音能力第 6、10 章
10. 嵌入与序列模型文本变成向量,序列可以被学习第 11 章
11. Transformer 与预训练Attention 让大规模语言模型变得可行第 6-7 章
12. 大模型与对齐模型开始像助手一样听指令第 7 章
13. RAG模型连接外部知识和引用来源第 8 章
14. Agent 与工具调用模型能规划、调工具、留下执行轨迹第 9 章
15. 多模态与 AIGCAI 处理文本、图像、语音、视频和生成任务第 12 章

最重要的规律很简单:每一代都在解决上一代的瓶颈,同时又带来新的工程问题。

把主线看成接力赛

AI 主线接力总地图

AI 历史比论文清单更像接力赛:

接力变化发生了什么
规则 -> 概率系统从固定逻辑走向不确定证据
概率 -> 机器学习模型开始从数据里学习规律
机器学习 -> 深度学习特征不再全靠人工设计,开始被模型学习
深度学习 -> Transformer序列建模更容易规模化
LLM -> RAG / Agent模型连接知识、工具和工作流
文本 -> 多模态AI 开始理解和生成多种媒体

最值得先记住的 6 个转折点

AI 历史转折点漫画

转折点新人为什么要关心
感知器人们第一次强烈感觉机器也许能从数据中学习
XOR 限制提醒我们简单线性模型远远不够
反向传播多层神经网络开始真正可训练
AlexNet数据、GPU 和深层 CNN 让深度学习爆发
TransformerAttention 改写了序列建模主线
RAG / Agent模型从回答文字走向使用知识和工具

第一遍不要急着背年份。先记住这条情绪线:希望、受挫、修复、规模化、工程化。

怎么读一个论文节点

AI 论文:问题、方法、影响链条

看到任何论文或算法,先问四个问题就够了:

问题例子:Attention Is All You Need
原来的瓶颈是什么RNN 不容易并行,长距离依赖路径太长
新方法是什么self-attention、multi-head attention、position encoding
打开了什么新能力更容易规模化的序列建模,后来支撑大语言模型
影响了哪些项目LLM、RAG、Agent、多模态模型

这已经足够支撑新人建立历史理解。公式细节可以等学到相关章节再看。

按课程主线查关键节点

从项目视角看 AI 时间线

课程主线先认识哪些节点为什么重要
数学基础Bayes、Shannon、最大似然、EM概率、信息量和损失函数
经典机器学习CART、SVM、Random Forest、AdaBoost、XGBoost强基线和表格数据工程
神经网络Perceptron、XOR、Backpropagation、LSTM、AlexNet、ResNet理解深度、梯度、数据和算力为什么重要
NLP 与大模型Word2Vec、Seq2Seq、Transformer、BERT、GPT、InstructGPT从词向量走向助手的路线
RAG 与 AgentRAG、Chain-of-Thought、ReAct、Toolformer外部知识、推理轨迹和工具调用
多模态CLIP、DDPM、Latent Diffusion、Whisper、SAM文本、图像、语音、视频和生成流水线

有些节点是具体论文,有些是算法族或历史转折点。没关系,真正有用的问题始终是:它让什么问题变容易了?

可选分支图

只在学到对应章节时再看这些图。

三次神经网络浪潮与两次低谷时间线

经典机器学习分支图

NLP 到 LLM 演进图

对齐、Agent 与系统主线图

从 LLM 到 Agent 的工程演进时间线

多模态与 AIGC 演进图

章节快速索引

如果你看到这个名字回到哪里学
Bayes、MLE、entropy、EM第 4 章数学基础
SVM、Random Forest、XGBoost第 5 章机器学习
Perceptron、backpropagation、CNN、LSTM、Transformer第 6 章深度学习
GPT、RLHF、LoRA、instruction tuning第 7 章大模型原理
RAG、vector retrieval、citations第 8 章 RAG
Chain-of-Thought、ReAct、Toolformer、tool use第 9 章 Agent
AlexNet、ResNet、YOLO、SAM第 10 章计算机视觉
Word2Vec、Seq2Seq、BERT、GPT第 11 章 NLP
CLIP、diffusion、Whisper、多模态生成第 12 章多模态

小练习

任选 3 个节点,用项目语言改写:

节点:Attention Is All You Need
旧瓶颈:RNN 不适合长序列和并行训练。
新方法:self-attention 成为序列建模主线。
影响项目:LLM、RAG、Agent、多模态模型。
应该回看:第 6、7、8、9 章。

目标不是背历史,而是把历史节点和你以后会做的真实能力连接起来。