跳到主要内容

阶段学习任务单:大模型原理、Prompt 与微调

这个阶段的目标是让你理解大模型为什么能生成文本,Prompt 如何影响输出,什么时候需要结构化输出、RAG 或微调。不要把 Prompt 当成玄学,要把它当成可版本化、可测试、可复盘的工程输入。

本阶段必须完成的任务

任务产出物通过标准
理解大模型基本原理一份 LLM 工作流图能解释 token、上下文、概率生成和 Transformer 的关系
完成 Prompt 基础练习一组 Prompt 对比样本能比较角色、上下文、示例和约束对输出的影响
完成结构化输出一个 JSON 输出 Demo能定义字段、校验类型,并处理解析失败
理解 RAG 与微调边界一份技术选择表能说明什么时候用 Prompt、RAG、微调或规则
完成阶段项目一个 Prompt 助手或复盘卡生成器有 Prompt 版本、固定输入、输出对比和失败样本

推荐学习顺序

先理解 token、上下文和生成机制,再学习 Prompt 基础、进阶 Prompt、结构化输出和微调边界。第一遍不要急着训练模型,先把“怎么稳定调用和约束模型输出”这件事做好。

每次改 Prompt 都应该记录版本和测试样本。Prompt 工程不是凭感觉写一句更长的话,而是控制变量、对比输出、记录失败,并把有效改动固化下来。

和 AI 学习助手项目的关系

本阶段对应 AI 学习助手的 v0.7 Prompt 助手。你可以让系统根据学习记录生成学习计划、知识卡片、复盘总结或错题解释,并记录 Prompt 版本和失败样本。

建议最小功能包括:输入学习主题和当前水平,输出结构化学习建议;保存 Prompt 版本;用固定样本测试输出是否稳定。

常见卡点

常见问题包括 Prompt 越写越长但效果不稳定,JSON 输出带额外解释,字段类型漂移,模型编造不存在的资料,改了 Prompt 后旧样本变差。排查时先看输入、Prompt 版本、模型原始输出和解析逻辑,不要只看最终展示文本。

阶段作品集交付物

如果你想把本阶段成果沉淀到作品集,建议至少保留下面这些文件或等价材料。

交付物说明
prompts/保存 Prompt 模板、版本号、适用任务和变更说明
prompt_eval_cases.csv固定输入、期望输出要点、实际输出和评分
structured_output_schema.json结构化输出字段、类型、必填项和枚举值
failure_cases.mdJSON 解析失败、字段缺失、幻觉、风格漂移等样本
README.md项目目标、运行方式、Prompt 版本、评估结果和限制

这些材料会让 Prompt 项目从“我会写提示词”升级成“我能把模型输出变成稳定、可测试、可维护的应用接口”。

阶段通关问题

学完后,你应该能回答这些问题:token 和上下文为什么重要,Prompt 示例为什么会影响输出,结构化输出为什么需要校验,什么时候应该用 RAG 而不是继续加 Prompt,什么时候微调值得考虑。

完成状态 Checklist

  • 我能解释大模型生成文本的基本过程和上下文限制。
  • 我能设计一个有角色、任务、约束和示例的 Prompt。
  • 我能让模型输出结构化 JSON,并处理解析失败。
  • 我能记录 Prompt 版本,并用固定样本比较效果。
  • 我能说明 Prompt、RAG、微调和规则系统的适用边界。