阶段学习任务单:大模型原理、Prompt 与微调
这个阶段的目标是让你理解大模型为什么能生成文本,Prompt 如何影响输出,什么时候需要结构化输出、RAG 或微调。不要把 Prompt 当成玄学,要把它当成可版本化、可测试、可复盘的工程输入。
本阶段必须完成的任务
| 任务 | 产出物 | 通过标准 |
|---|---|---|
| 理解大模型基本原理 | 一份 LLM 工作流图 | 能解释 token、上下文、概率生成和 Transformer 的关系 |
| 完成 Prompt 基础练习 | 一组 Prompt 对比样本 | 能比较角色、上下文、示例和约束对输出的影响 |
| 完成结构化输出 | 一个 JSON 输出 Demo | 能定义字段、校验类型,并处理解析失败 |
| 理解 RAG 与微调边界 | 一份技术选择表 | 能说明什么时候用 Prompt、RAG、微调或规则 |
| 完成阶段项目 | 一个 Prompt 助手或复盘卡生成器 | 有 Prompt 版本、固定输入、输出对比和失败样本 |
推荐学习顺序
先理解 token、上下文和生成机制,再学习 Prompt 基础、进阶 Prompt、结构化输出和微调边界。第一遍不要急着训练模型,先把“怎么稳定调用和约束模型输出”这件事做好。
每次改 Prompt 都应该记录版本和测试样本。Prompt 工程不是凭感觉写一句更长的话,而是控制变量、对比输出、记录失败,并把有效改动固化下来。
和 AI 学习助手项 目的关系
本阶段对应 AI 学习助手的 v0.7 Prompt 助手。你可以让系统根据学习记录生成学习计划、知识卡片、复盘总结或错题解释,并记录 Prompt 版本和失败样本。
建议最小功能包括:输入学习主题和当前水平,输出结构化学习建议;保存 Prompt 版本;用固定样本测试输出是否稳定。
常见卡点
常见问题包括 Prompt 越写越长但效果不稳定,JSON 输出带额外解释,字段类型漂移,模型编造不存在的资料,改了 Prompt 后旧样本变差。排查时先看输入、Prompt 版本、模型原始输出和解析逻辑,不要只看最终展示文本。
阶段作品集交付物
如果你想把本阶段成果沉淀到作品集,建议至少保留下面这些文件或等价材料。
| 交付物 | 说明 |
|---|---|
prompts/ | 保存 Prompt 模板、版本号、适用任务和变更说明 |
prompt_eval_cases.csv | 固定输入、期望输出要点、实际输出和评分 |
structured_output_schema.json | 结构化输出字段、类型、必填项和枚举值 |
failure_cases.md | JSON 解析失败、字段缺失、幻觉、风格漂移等样 本 |
README.md | 项目目标、运行方式、Prompt 版本、评估结果和限制 |
这些材料会让 Prompt 项目从“我会写提示词”升级成“我能把模型输出变成稳定、可测试、可维护的应用接口”。
阶段通关问题
学完后,你应该能回答这些问题:token 和上下文为什么重要,Prompt 示例为什么会影响输出,结构化输出为什么需要校验,什么时候应该用 RAG 而不是继续加 Prompt,什么时候微调值得考虑。
完成状态 Checklist
- 我能解释大模型生成文本的基本过程和上下文限制。
- 我能设计一个有角色、任务、约束和示例的 Prompt。
- 我能让模型输出结构化 JSON,并处理解析失败。
- 我能记录 Prompt 版本,并用固定样本比较效果。
- 我能说明 Prompt、RAG、微调和规则系统的适用边界。