跳到主要内容

学习指南:大模型原理怎么学最不容易学乱

这页适合什么时候看

如果你来到第八 A 阶段后开始觉得:

  • 大模型术语很多
  • Prompt、微调、RAG、对齐容易混
  • 一上来就只想追模型名和榜单

那这页就是给你的。

这一阶段最重要的总原则

第八 A 阶段最容易学乱的原因,不是知识太深,而是太容易把“结构、训练、适配、对齐”混在一起。

更适合新人的主线其实是:

先搞清能力从哪里来,再分清 Prompt、微调、对齐分别在改哪一层。

最推荐的阅读顺序

  1. 先补 NLP crash course
    先把 tokenizer、embedding、预训练模型底座接顺。

  2. 再看 LLM 概览
    先立模型和时代地图。

  3. 再看 Transformer 深入 + 预训练
    先搞清能力是怎么长出来的。

  4. 然后学 Prompt
    先理解不改参数时怎么改输出。

  5. 再学微调和对齐
    这时你更容易分清它们为什么出现。

  6. 最后看项目

这一阶段最容易卡住的地方

1. 把 Prompt、微调、RAG 混成一个东西

先分清:

  • Prompt:主要改输入和推理约束
  • 微调:主要改参数
  • RAG:主要补外部知识

2. 只记模型名,不理解能力来源

先问:

  • 这个能力是结构带来的?
  • 预训练带来的?
  • 还是适配带来的?

3. 太早追最热方法

先把主线立住,再看新名词,会稳很多。

第一次做 LLM 原理学习,最稳的默认顺序

  1. 先搞清模型主线
  2. 先搞清预训练和生成目标
  3. 先分清 Prompt / 微调 / 对齐
  4. 最后再看哪种方案适合你的场景

如果你准备进入第八 B 阶段,最值得先带走什么

进入应用与工程阶段前,最值得先带走的是:

  1. 知道大模型能力主要从哪里来
  2. 能分清 Prompt、微调、RAG 的边界
  3. 能解释为什么对齐不是“可有可无”

一句话版的过关标准

  • 能把结构、预训练、适配、对齐讲成一条线
  • 能判断什么时候该 Prompt、什么时候该微调
  • 不再把大模型主线学成模型名列表

如果这三件事已经开始成立,第八 A 阶段就已经学得很值了。