Skip to main content

7.5.1 Prompt 工程路线图:任务简报、输出、评测

Prompt 工程是应用和模型之间的接口。目标不是写一句聪明的话,而是让一次模型调用变得可预测、可解析、可测试、可持续改进。

先看 Prompt 闭环

Prompt 工程章节关系图

Prompt 三层任务规格图

Prompt 迭代测试闭环图

当模型大致有能力,但结果含糊、不稳定、格式不对或难以评估时,就优先使用本章的方法。

跑一个 Prompt 合约检查

调用任何 LLM 之前,先把 Prompt 写成一个合约:任务、上下文、输出格式和约束。下面的小脚本检查这个合约是否完整到可以测试。

prompt_contract = {
"task": "Extract chapter metadata",
"context": "One course markdown file",
"output_format": ["chapter", "goals", "prerequisites", "risks"],
"constraints": ["return JSON only", "mark missing facts as null"],
}

required = ["task", "context", "output_format", "constraints"]
missing = [field for field in required if not prompt_contract.get(field)]

print("ready:", not missing)
print("fields:", ", ".join(required))
print("test_case_count:", 3)

预期输出:

ready: True
fields: task, context, output_format, constraints
test_case_count: 3

如果 readyFalse,先补完整任务简报,再继续试更多样例。模糊的 Prompt 会带来模糊的调试。

按这个顺序学

步骤阅读实操产出
1Prompt 基础把一个模糊需求改写成任务、上下文、格式、约束
2进阶 Prompt只在有帮助时加入示例、步骤、角色和边界说明
3结构化输出生成可被程序解析的 JSON、表格或 Markdown
4Prompt 实战在同一批固定输入上比较 Prompt 版本
5评测实验室记录通过率、失败类型和下一次修改

通过标准

如果你能固定输入集,每次只改一个 Prompt 层,并用证据说明新版本为什么更好,而不是凭感觉判断,就通过了本章。

本章出口小项目是课程内容抽取 Prompt:输入一篇课程文档,输出章节主题、学习目标、前置知识、关键术语、练习建议和风险提醒,格式为 JSON 或 Markdown 表格。