メインコンテンツへスキップ

A.3 AI 発展史:15 段階と重要論文

AI 15段階発展史マップ

このページは任意の背景資料です。「この概念はどこから来たのか」を知るためのもので、初回から論文名を暗記するためのページではありません。

おすすめの使い方:

  1. まず 15 段階の図を見る。
  2. 段階表をざっと読む。
  3. 今学んでいる章に関係する段階だけを見る。
  4. 後で論文名やアルゴリズム名が出てきたら戻ってくる。

15 段階マップ

段階初学者向けの意味対応する章
1. AI という問い機械は知的にふるまえるのか導入
2. 記号主義 AI人がルールを書き、機械がルールで推論する背景知識
3. エキスパートシステム専門知識をルールベースのソフトウェアにするシステム思考
4. 確率と統計固定ルールだけでなく、証拠と不確実性で判断する第 4 章
5. 古典的機械学習データと特徴量からパターンを学ぶ第 5 章
6. 初期ニューラルネットモデルが単純な判断境界を学び始める第 5-6 章
7. 誤差逆伝播多層ネットワークが本格的に学習可能になる第 6 章
8. カーネルとアンサンブルSVM、木、森、Boosting が ML を実用的にする第 5 章
9. 深層学習の突破データ + GPU + 深いネットワークが画像と音声を開く第 6、10 章
10. 埋め込みと系列モデルテキストがベクトルになり、系列を学習できる第 11 章
11. Transformer と事前学習Attention が大規模言語モデルを実用化する第 6-7 章
12. LLM とアラインメントモデルが指示に従うアシスタントらしくなる第 7 章
13. RAGモデルが外部知識と引用に接続する第 8 章
14. Agent とツール利用モデルが計画し、ツールを呼び、実行履歴を残す第 9 章
15. マルチモーダルと AIGCAI がテキスト、画像、音声、動画、生成を扱う第 12 章

一番大事な流れはシンプルです。各段階は前の段階の限界を解き、同時に新しいエンジニアリング課題を生みます。

主線をリレーとして読む

AI 主線の駅伝全体図

AI の歴史は、論文名の一覧というよりリレーに近いです。

受け渡し何が変わったか
ルール -> 確率システムが固定ロジックから不確実な証拠へ進んだ
確率 -> 機械学習モデルがデータからパターンを学び始めた
機械学習 -> 深層学習特徴量を完全に手作りするのではなく、モデルが学ぶようになった
深層学習 -> Transformer系列モデリングを大規模化しやすくなった
LLM -> RAG / Agentモデルが知識、ツール、ワークフローに接続した
テキスト -> マルチモーダルAI が複数のメディアを理解し生成し始めた

まず覚えたい 6 つの転換点

AI 歴史の転換点コミック

転換点初学者が気にする理由
パーセプトロン機械がデータから学べるかもしれないという強い期待を生んだ
XOR の限界単純な線形モデルだけでは足りないことを示した
誤差逆伝播多層ニューラルネットワークが実用的に学習可能になった
AlexNetデータ、GPU、深い CNN が深層学習を一気に押し上げた
TransformerAttention が系列モデリングの主線を書き換えた
RAG / Agentモデルが文章回答から知識とツール利用へ進んだ

最初から年号を覚える必要はありません。まずは流れを覚えます。期待、挫折、修復、スケール、エンジニアリングです。

論文ノードの読み方

AI 論文の問題・方法・影響チェーン

どんな論文やアルゴリズムでも、最初は 4 つだけ問いましょう。

問い例: Attention Is All You Need
以前のボトルネックは何かRNN は並列化しにくく、長距離依存の経路も長かった
新しい方法は何かself-attention、multi-head attention、position encoding
どんな能力が開いたか大規模化しやすい系列モデリングと、その後の大規模言語モデル
どんなプロジェクトに影響したかLLM、RAG、Agent、マルチモーダルモデル

初学者の歴史理解としては、ここまでで十分です。数式の詳細は、該当する章まで進んでからで大丈夫です。

コース主線別の重要ノード

プロジェクト視点で見る AI タイムライン

コース主線先に知っておきたいノードなぜ重要か
数学基礎Bayes、Shannon、最尤推定、EM確率、情報量、損失関数
古典的機械学習CART、SVM、Random Forest、AdaBoost、XGBoost強いベースラインと表データの実務
ニューラルネットPerceptron、XOR、Backpropagation、LSTM、AlexNet、ResNet深さ、勾配、データ、計算資源がなぜ重要か
NLP と LLMWord2Vec、Seq2Seq、Transformer、BERT、GPT、InstructGPT単語ベクトルからアシスタントへ進む流れ
RAG と AgentRAG、Chain-of-Thought、ReAct、Toolformer外部知識、推論トレース、ツール利用
マルチモーダルCLIP、DDPM、Latent Diffusion、Whisper、SAMテキスト、画像、音声、動画、生成パイプライン

具体的な論文もあれば、アルゴリズム群や歴史的な転換点もあります。大事なのは、「そのノードは何を簡単にしたのか」です。

任意の分岐図

関連する章を学んでいるときだけ見れば十分です。

3 回のニューラルネットワーク波と 2 回の谷

古典的機械学習の分岐図

NLP から LLM への系譜図

アラインメント、Agent、システム主線図

LLM から Agent へのエンジニアリング進化タイムライン

マルチモーダルと AIGC の系譜図

章別クイック索引

この名前を見たら戻る章
Bayes、MLE、entropy、EM第 4 章 数学基礎
SVM、Random Forest、XGBoost第 5 章 機械学習
Perceptron、backpropagation、CNN、LSTM、Transformer第 6 章 深層学習
GPT、RLHF、LoRA、instruction tuning第 7 章 LLM 原理
RAG、vector retrieval、citations第 8 章 RAG
Chain-of-Thought、ReAct、Toolformer、tool use第 9 章 Agent
AlexNet、ResNet、YOLO、SAM第 10 章 コンピュータビジョン
Word2Vec、Seq2Seq、BERT、GPT第 11 章 NLP
CLIP、diffusion、Whisper、マルチモーダル生成第 12 章 マルチモーダル

小さな練習

好きなノードを 3 つ選び、プロジェクトの言葉に書き換えます。

ノード: Attention Is All You Need
以前のボトルネック: RNN は長い系列や並列学習に向いていなかった。
新しい方法: self-attention が系列モデリングの主線になった。
影響したプロジェクト: LLM、RAG、Agent、マルチモーダルモデル。
戻って学ぶ章: 第 6、7、8、9 章。

目的は歴史を暗記することではありません。歴史上のノードを、これから作る実際の能力と結びつけることです。