5.4.1 評価ロードマップ:チューニング前にスコアを信頼できるか見る
モデル評価は、モデルが本当に良いのか、それともたまたまスコアが良く見えただけなのかを確認します。
まず評価マップを見る


| テーマ | 最初に問うこと |
|---|---|
| 指標 | どのスコアがタスクに合うか |
| 交差検証 | 分割を変えてもスコアは安定するか |
| バイアスとバリアンス | モデルは単純すぎるか、柔軟すぎるか |
| チューニング | どのパラメータ変更が本当に良いか |
交差検証を一度動かす
evaluation_first_loop.py を作り、scikit-learn をインストールしてから実行します。
from sklearn.datasets import load_iris
from sklearn.model_selection import cross_val_score
from sklearn.tree import DecisionTreeClassifier
X, y = load_iris(return_X_y=True)
model = DecisionTreeClassifier(max_depth=2, random_state=42)
scores = cross_val_score(model, X, y, cv=5)
print("fold_scores:", [float(round(score, 3)) for score in scores])
print("mean_accuracy:", round(scores.mean(), 3))
出力:
fold_scores: [0.933, 0.967, 0.9, 0.867, 1.0]
mean_accuracy: 0.933
1つのスコアはスナップショットです。複数 fold を見ると、信頼できるほど安定しているかがわかります。
この順番で学ぶ
| 順番 | 読む | 練習すること |
|---|---|---|
| 1 | 5.4.2 評価指標 | accuracy、precision、recall、F1、R2、RMSE |
| 2 | 5.4.3 交差検証 | 安定した見積もり、データ分割リスク |
| 3 | 5.4.4 バイアスとバリアンス | 未学習、過学習、学習曲線 |
| 4 | 5.4.5 ハイパーパラメータ調整 | グリッドサーチ、比較記録 |
合格ライン
タスクに合う指標を選び、スコア安定性チェックを1つ説明し、評価方法が信頼できない段階で急いでチューニングしなければ合格です。