跳到主要内容

项目页交付标准

课程里的项目页不应该只告诉学习者“做什么功能”,还应该告诉他们“交付什么证据”。一个项目如果没有运行方式、示例输入输出、评估方式和失败样本,就很难从练习变成作品集。

项目页推荐结构

模块要回答的问题最低要求
项目目标这个项目解决什么问题说明用户输入、系统输出和使用场景
运行方式别人如何复现给出安装依赖、运行命令和环境变量说明
示例输入输出项目实际长什么样至少展示一个真实输入和对应输出
项目结构文件如何组织列出核心源码、数据、日志和报告目录
方法说明为什么这样做说明数据、模型、Prompt、RAG、Agent 或工具选择
评估方式怎么判断效果写清指标、baseline、测试集或人工检查标准
失败样本哪里还不稳定至少记录 1~3 个失败案例和可能原因
下一步计划如何迭代给出下一版准备改什么,以及为什么

项目越接近课程后半段,就越应该强调工程闭环。RAG 项目要有检索日志和引用检查,Agent 项目要有 trace 和权限边界,多模态项目要有素材来源和审核清单。

README 最小验收

每个阶段项目的 README 至少应该能让另一个人回答:这个项目是做什么的,怎么运行,输入输出是什么,当前效果怎样,哪里会失败,下一步准备怎么改。

# 项目名称

## 项目目标

## 运行方式

## 示例输入输出

## 项目结构

## 方法说明

## 评估方式

## 失败样本

## 下一步计划

如果项目涉及 LLM、RAG 或 Agent,还应该额外说明 Prompt 版本、模型调用配置、检索配置、工具 schema、日志字段和安全边界。

不同类型项目的补充要求

项目类型额外证据常见不合格信号
Python 小工具命令行参数、文件读写样例、异常处理只能在作者电脑上跑,没有示例输入
数据分析项目数据字典、清洗记录、图表结论、局限性只有图,没有解释和数据质量说明
机器学习项目baseline、指标、数据划分、错误分析只报告最高分,不说明评估方式
深度学习项目训练曲线、配置、checkpoint、失败样本loss 截图存在,但无法复现实验
Prompt 项目Prompt 版本、固定测试样本、结构化校验只展示一次成功输出
RAG 项目chunks、retrieval logs、eval questions、citation check答案看似正确但引用不支持
Agent 项目tools schema、agent traces、max_steps、人工确认Agent 做了什么无法回放
多模态项目素材来源、Prompt 版本、审核清单、导出结果只展示生成图,不说明来源和使用边界

项目收口 Checklist

提交阶段项目之前,建议逐项检查:README 是否能独立阅读,运行命令是否可复制,示例输入输出是否真实,评估方式是否明确,失败样本是否记录,项目限制是否写清,下一步计划是否具体。

如果一个项目暂时还不完整,也可以先按“最小闭环”提交。重要的是每次迭代都留下证据:本次新增什么、验证了什么、失败在哪里、下一步为什么这样改。