5.6.1 机器学习项目路线图:baseline、证据、改进
本小章是第 5 章出口。它证明你能把一个数据问题变成可评估、可解释、可展示的建模流程。
先看项目闭环


记住这个项目闭环:
问题 -> 数据 -> baseline -> 指标 -> 改进 -> 失败样本 -> 报告
不要一开始就冲复杂模型。没有 baseline、指标和失败分析的项目,只是一次 demo 运行。
保留一份实验记录
创建 ml_project_log_first_loop.py。这不是模型,而是每个模型项目都需要的习惯。
experiments = [
{"version": "v1_baseline", "metric": 0.72, "change": "default model"},
{"version": "v2_features", "metric": 0.78, "change": "add ratio features"},
{"version": "v3_tuned", "metric": 0.80, "change": "tune max_depth"},
]
best = max(experiments, key=lambda row: row["metric"])
print("best_version:", best["version"])
print("best_metric:", best["metric"])
print("next_step: inspect failure cases before adding more models")
预期输出:
best_version: v3_tuned
best_metric: 0.8
next_step: inspect failure cases before adding more models
这一步是在转换思维:从“我跑了模型”变成“我能比较版本并解释下一步”。
按这个顺序学
| 顺序 | 阅读 | 交付什么 |
|---|---|---|
| 1 | 5.6.2 房价预测 | 回归 baseline 和改进 |
| 2 | 5.6.3 客户流失预测 | 分类指标和阈值思维 |
| 3 | 5.6.4 用户分群 | 聚类解释和业务标签 |
| 4 | 5.6.5 Kaggle 实践 | 真实提交流程 |
| 5 | 5.6.6 ML 实操工作坊 | 一份完整证据包演练 |
工作坊放在最后,因为它把前面项目习惯整理成一份可复现证据包。
项目交付物标准

至少为一个项目保留这些文件:README.md、运行命令、指标表、实验记录、一个失败样本、一张图、下一步计划。
通过标准
能说清:我如何定义任务、用了什么 baseline、信任哪个指标、哪里变好了、模型在哪里失败、下一步做什么,就算通过。