メインコンテンツへスキップ

7.2.1 LLM 概要ロードマップ:能力、コスト、プロダクト適性

LLM 概要はモデル名リストではありません。大規模モデルに何ができ、何にコストがかかり、prompt、RAG、Agent、fine-tuning のどれが合うかを判断するための章です。

まず能力スタックを見る

LLM 概要章関係図

大規模モデル能力スタックとアプリケーション生態図

ルート向いている場面
promptモデルが十分知っていて、タスクが単純
RAG私有知識や変化する知識を引用したい
Agentツール利用や複数ステップの行動が必要
fine-tuning振る舞い、文体、形式を繰り返し適応したい

ルート判断を一度動かす

request = {
"needs_private_docs": True,
"needs_tool_action": False,
"needs_repeated_style": False,
}

if request["needs_tool_action"]:
route = "Agent"
elif request["needs_private_docs"]:
route = "RAG"
elif request["needs_repeated_style"]:
route = "fine-tuning"
else:
route = "prompt"

print("recommended_route:", route)

出力:

recommended_route: RAG

LLM route 判断の実行結果図

これは完全な設計判断ではありません。実際のプロダクト要件を満たす最小ルートを選ぶ練習です。

この順番で学ぶ

順番読む残すもの
17.2.2 発展史scaling と instruction tuning がなぜ重要か
27.2.3 コア概念context、token、temperature、遅延、コスト
37.2.4 業界地図モデル/プロバイダ選択メモ
47.2.5 LLM 呼び出しワークベンチ1つの request/response 記録

合格ライン

能力、context、コスト、遅延、データプライバシー、ルート適性からモデル選択を1つ説明できれば合格です。