OpenClaw モデル設定完全ガイド:デフォルトモデルの変更からトラブルシューティングまで
はじめに:なぜOpenClawでモデルを変更するのか
OpenClawは複数のAIモデルプロバイダーに対応した強力なAIアシスタントプラットフォームです。デフォルトではzai/glm-5(GLM-5)が設定されていますが、用途や予算、パフォーマンス要件に応じて最適なモデルを選択することが重要です。
モデル選択が重要な理由
- タスクに最適なパフォーマンス: プログラミングタスクにはCodex系モデル、一般的な会話には汎用モデル、推論タスクにはReasoningモデルなど、用途に応じた選択が可能
- コスト最適化: 高性能モデルは高コスト、軽量モデルは低コスト。バランスの取れた選択が重要
- レートリミット対策: 複数のモデルをフォールバック設定しておくことで、API制限時も継続利用可能
- 機能の違い: 一部のモデルは画像認識、長文コンテキスト、推論機能など、モデルごとに異なる機能を提供
本ガイドでは、OpenClawでのモデル設定方法を初心者にもわかりやすく解説します。
おすすめのAIモデル記事
- DeepSeek V4の使い方と性能を完全解説 — 無料でGPTを超える最新AI
- Alibaba Cloud低コストでAIを始める方法 — クラウドAIの最安選択肢
📚 OpenClaw・AIエージェント関連のおすすめ書籍
OpenClawやAIエージェントについてもっと深く学びたい方に:
tag=labmemocom-22″ target=”_blank” rel=”noopener”>AmazonでLangChain実践書籍を探す
— LLMアプリ開発の定番- 1. モデル設定方法の概要
OpenClawでモデルを設定する方法は主に3つあります:
方法 用途 難易度 設定ファイル(openclaw.json) デフォルトモデルの永続的設定 中級 /modelコマンドセッションごとの一時的変更 初級 環境変数 API キーやプロバイダー設定 上級 それぞれの方法を詳しく見ていきましょう。
2. 設定ファイルでのデフォルトモデル設定
2.1 openclaw.json の基本構造
OpenClawの設定は
~/.openclaw/openclaw.jsonファイルに保存されます。モデル関連の主要な設定項目は以下の通りです:{ agents: { defaults: { model: { primary: "zai/glm-5", // プライマリモデル fallbacks: [ // フォールバックモデル(優先順) "openai-codex/gpt-5.3-codex", "anthropic/claude-sonnet-4-5" ] }, imageModel: { primary: "anthropic/claude-sonnet-4-5", // 画像処理用モデル fallbacks: [] }, models: { // モデルエイリアス定義 "zai/glm-5": { alias: "GLM-5" }, "openai-codex/gpt-5.3-codex": { alias: "Codex" }, "anthropic/claude-sonnet-4-5": { alias: "Sonnet" } } } } }2.2 CLIコマンドでの設定
設定ファイルを直接編集せず、CLIコマンドを使用してモデルを設定することもできます:
# プライマリモデルを設定 openclaw models set zai/glm-5 # または エイリアスを使用 openclaw models set GLM-5 # 画像処理用モデルを設定 openclaw models set-image anthropic/claude-sonnet-4-5 # 現在の設定を確認 openclaw models status2.3 フォールバックモデルの設定
フォールバックモデルを設定することで、プライマリモデルが利用できない場合に自動的に代替モデルへ切り替わります:
# フォールバックモデルを追加 openclaw models fallbacks add openai-codex/gpt-5.3-codex openclaw models fallbacks add anthropic/claude-sonnet-4-5 # フォールバックリストを確認 openclaw models fallbacks list # フォールバックモデルを削除 openclaw models fallbacks remove openai-codex/gpt-5.3-codex # すべてのフォールバックをクリア openclaw models fallbacks clear2.4 モデルエイリアスの設定
よく使用するモデルに短いエイリアスを設定すると便利です:
# エイリアスを追加 openclaw models aliases add glm zai/glm-5 openclaw models aliases add codex openai-codex/gpt-5.3-codex # エイリアスリストを確認 openclaw models aliases list # エイリアスを使用してモデルを設定 openclaw models set glm3. /model コマンドでのセッションごとの変更
3.1 基本的な使い方
チャットセッション内で
/modelコマンドを使用すると、そのセッションのみで使用するモデルを変更できます:# モデル選択メニューを表示 /model # モデル一覧を表示 /model list # 番号で選択 /model 3 # モデル名で直接指定 /model openai-codex/gpt-5.3-codex # エイリアスで指定 /model codex # 現在のモデル状態を確認 /model status3.2 Discordでのモデル変更
Discordでは、
/modelおよび/modelsコマンドがインタラクティブなピッカーを表示します:/modelと入力- プロバイダーのドロップダウンから選択
- モデルのドロップダウンから選択
- 「Submit」ボタンをクリック
3.3 モデル参照のルール
モデル参照は
provider/modelの形式で指定します:# 正しい形式 /model openai/gpt-5.4 /model anthropic/claude-opus-4-6 /model zai/glm-5 # プロバイダーを省略(デフォルトプロバイダーのモデルとして解釈) /model gpt-5.4 # 注意: モデルIDに「/」が含まれる場合は機能しない # OpenRouterスタイル(モデルIDに「/」を含む場合) /model openrouter/moonshotai/kimi-k2重要: モデルID自体に
/が含まれる場合(OpenRouterスタイル)、必ずプロバイダープレフィックスを含める必要があります。4. 環境変数での設定
4.1 API キーの環境変数
各プロバイダーのAPI キーは環境変数で設定します:
# Z.AI (GLM) export ZAI_API_KEY="your-zai-api-key" # OpenAI export OPENAI_API_KEY="your-openai-api-key" # Anthropic export ANTHROPIC_API_KEY="your-anthropic-api-key" # OpenCode export OPENCODE_API_KEY="your-opencode-api-key" # Google Gemini export GEMINI_API_KEY="your-gemini-api-key" # OpenRouter export OPENROUTER_API_KEY="your-openrouter-api-key"4.2 API キーローテーション
複数のAPI キーを設定することで、レートリミット時に自動的にキーをローテーションできます:
# カンマまたはセミコロン区切りで複数キーを設定 export OPENAI_API_KEYS="key1,key2,key3" # または番号付きで設定 export OPENAI_API_KEY_1="first-key" export OPENAI_API_KEY_2="second-key" export OPENAI_API_KEY_3="third-key" # ライブオーバーライド(最高優先度) export OPENCLAW_LIVE_OPENAI_KEY="override-key"4.3 プロバイダー別のローテーション対応
以下のプロバイダーがAPI キーローテーションに対応しています:
- OpenAI (
OPENAI_API_KEYS,OPENCLAW_LIVE_OPENAI_KEY) - Anthropic (
ANTHROPIC_API_KEYS,OPENCLAW_LIVE_ANTHROPIC_KEY) - Google Gemini (
GEMINI_API_KEYS,GOOGLE_API_KEY,OPENCLAW_LIVE_GEMINI_KEY)
5. 利用可能なモデル一覧
5.1 Z.AI (GLM) – デフォルトプロバイダー
プロバイダー:
zai
認証:ZAI_API_KEY
推奨モデル:zai/glm-5GLM-5は、中国のZ.AIが開発した大規模言語モデルで、多言語対応と高いコストパフォーマンスが特徴です。
{ agents: { defaults: { model: { primary: "zai/glm-5" } } } }GLM-5の特徴:
- 多言語対応(日本語、中国語、英語など)
- 長いコンテキストウィンドウ
- 高いコストパフォーマンス
- 推論(Reasoning)機能のサポート
GLM-5の詳細・登録: https://z.ai/subscribe?ic=N8AIUB4QXV
5.2 OpenAI Code (Codex) – プログラミング特化
プロバイダー:
openai-codex
認証: OAuth(ChatGPT)
推奨モデル:openai-codex/gpt-5.4Codexはプログラミングタスクに特化したOpenAIのモデルで、コード生成、デバッグ、リファクタリングに優れています。
# OAuth認証を開始 openclaw models auth login --provider openai-codex主なモデル:
openai-codex/gpt-5.4– 最新の高性能モデルopenai-codex/gpt-5.3-codex– 安定版
5.3 Anthropic Claude – 高品質な対話
プロバイダー:
anthropic
認証:ANTHROPIC_API_KEYまたはclaude setup-token
推奨モデル:anthropic/claude-opus-4-6,anthropic/claude-sonnet-4-5Claudeは長文の理解と生成に優れ、複雑なタスクや長い会話に適しています。
# API キー認証 export ANTHROPIC_API_KEY="your-api-key" # または setup-token 認証 claude setup-token openclaw models status主なモデル:
anthropic/claude-opus-4-6– 最も高性能なモデル(高コスト)anthropic/claude-sonnet-4-5– バランスの取れたモデル
5.4 OpenCode – 統合コーディング環境
プロバイダー:
opencode(Zen),opencode-go(Go)
認証:OPENCODE_API_KEY
推奨モデル:opencode/claude-opus-4-6export OPENCODE_API_KEY="your-opencode-api-key" openclaw models set opencode/claude-opus-4-65.5 Google Gemini – マルチモーダル対応
プロバイダー:
google
認証:GEMINI_API_KEY
推奨モデル:google/gemini-3.1-pro-preview,google/gemini-3-flash-previewexport GEMINI_API_KEY="your-gemini-api-key" openclaw models set google/gemini-3.1-pro-preview5.6 その他のプロバイダー
プロバイダー 認証 例モデル 特徴 OpenRouter OPENROUTER_API_KEYopenrouter/anthropic/claude-sonnet-4-5複数モデルへの統合アクセス xAI XAI_API_KEYxai/grokGrokモデル Mistral MISTRAL_API_KEYmistral/mistral-large-latestヨーロッパ発の高性能モデル Groq GROQ_API_KEY– 高速推論 Cerebras CEREBRAS_API_KEY– 高速推論 5.7 モデル一覧の確認
利用可能なモデルを確認するには:
# 設定済みモデルを表示 openclaw models list # 全カタログを表示 openclaw models list --all # ローカルプロバイダーのみ openclaw models list --local # 特定プロバイダーでフィルタ openclaw models list --provider openai # JSON形式で出力 openclaw models list --json6. モデル切り替えの注意点
6.1 Reasoningモデル vs 通常モデル
OpenClawは「Reasoning(推論)」機能を持つモデルをサポートしています。Reasoningモデルは回答前に内部で推論を行い、より正確な回答を生成します。
Reasoningモデルの特徴:
- 複雑な問題解決に適している
- 回答までに時間がかかる場合がある
/reasoning on|off|streamコマンドで可視性を制御可能
Reasoningモデルの例:
zai/glm-5(Reasoning対応)openai/gpt-5.4(Reasoning対応)anthropic/claude-opus-4-6(Reasoning対応)
設定での制御:
{ agents: { defaults: { models: { "zai/glm-5": { reasoning: true, // Reasoning機能を有効化 alias: "GLM-5" } } } } }6.2 コストとパフォーマンスの違い
モデルによってコストとパフォーマンスが大きく異なります:
モデルタイプ コスト パフォーマンス 推奨用途 Opus/Ultra級 高 最高 複雑な推論、重要なタスク Sonnet/Pro級 中 高 通常のタスク、バランス重視 Flash/Haiku級 低 中 単純なタスク、高速応答 無料枠 無料 低〜中 テスト、軽微なタスク コスト最適化のヒント:
- 日常的なタスクには中コストモデルを使用
- 重要なタスクのみ高コストモデルを使用
- フォールバックに低コストモデルを設定
- 無料枠のモデルをテスト用途に活用
6.3 コンテキストウィンドウと最大トークン数
モデルごとにコンテキストウィンドウ(一度に処理できるテキスト量)と最大トークン数が異なります:
{ models: { providers: { custom: { models: [ { id: "my-model", contextWindow: 200000, // コンテキストウィンドウサイズ maxTokens: 8192 // 最大生成トークン数 } ] } } } }重要: 長い会話や大きなファイルを扱う場合は、十分なコンテキストウィンドウを持つモデルを選択してください。
6.4 画像処理モデルの設定
画像を処理する必要がある場合、
imageModelを設定します:# 画像処理用モデルを設定 openclaw models set-image anthropic/claude-sonnet-4-5 # 画像処理用フォールバックを追加 openclaw models image-fallbacks add openai/gpt-5.4 # 確認 openclaw models status7. トラブルシューティング
7.1 「Model is not allowed」エラー
症状: モデル変更時に「Model "provider/model" is not allowed. Use /model to list available models.」と表示される
原因:
agents.defaults.modelsが設定されている場合、それがモデルの許可リスト(allowlist)として機能します。リストに含まれないモデルは選択できません。解決策:
# 方法1: 許可リストにモデルを追加 # openclaw.jsonを編集 { agents: { defaults: { models: { "zai/glm-5": { alias: "GLM-5" }, "openai-codex/gpt-5.4": { alias: "Codex" }, // 追加 } } } } # 方法2: 許可リストをクリア(すべてのモデルを許可) # openclaw.jsonからagents.defaults.modelsを削除 # 方法3: /model listで許可されたモデルを確認 /model list7.2 モデルが切り替わらない
症状:
/modelコマンドを実行してもモデルが変更されない確認事項:
- 認証情報を確認:
openclaw models status # 「Missing auth」セクションがないか確認- プロバイダー名を確認:
# 間違い(プロバイダー省略、モデルIDに「/」を含む) /model moonshotai/kimi-k2 # 正しい(プロバイダーを含める) /model openrouter/moonshotai/kimi-k2- セッションをリセット:
/new # または /reset7.3 認証エラー
症状: 「Missing auth」や「Unauthorized」エラーが表示される
解決策:
# API キーを設定 export ZAI_API_KEY="your-api-key" # または対話的に設定 openclaw configure --section model # OAuth認証(該当プロバイダーの場合) openclaw models auth login --provider openai-codex7.4 レートリミットエラー
症状: 「Rate limit exceeded」や「429」エラーが頻発する
解決策:
- 複数のAPI キーを設定:
export OPENAI_API_KEYS="key1,key2,key3"- フォールバックモデルを設定:
openclaw models fallbacks add zai/glm-5 openclaw models fallbacks add anthropic/claude-sonnet-4-5- オンボーディングウィザードを実行:
openclaw onboard7.5 OAuth トークンの期限切れ
症状: OAuth認証済みプロバイダーで突然認証エラーが発生
確認:
openclaw models status # OAuth expiry statusを確認解決策:
# 再認証 openclaw models auth login --provider openai-codex7.6 モデルの応答が遅い
原因と解決策:
原因 解決策 Reasoningモデルを使用中 /reasoning offで推論表示を無効化、または非Reasoningモデルに切り替えネットワーク遅延 ローカルモデル(Ollama等)の検討 サーバー負荷 フォールバックモデルの設定 高負荷なタスク より高性能なモデルに切り替え 8. セットアップウィザードの活用
8.1 オンボーディングウィザード
OpenClawには対話的なセットアップウィザードが用意されています:
openclaw onboardウィザードでは以下を設定できます:
- モデルプロバイダーの選択
- API キーまたはOAuth認証の設定
- デフォルトモデルの設定
8.2 プロバイダー別のオンボーディング
# OpenAI API キー openclaw onboard --auth-choice openai-api-key # OpenAI Codex OAuth openclaw onboard --auth-choice openai-codex # Anthropic openclaw onboard --auth-choice token # OpenCode Zen openclaw onboard --auth-choice opencode-zen # Google Gemini openclaw onboard --auth-choice gemini-api-key # Z.AI (GLM) openclaw onboard --auth-choice zai-api-key8.3 設定ウィザード
より詳細な設定を行う場合:
# 完全な設定ウィザード openclaw configure # 特定セクションのみ openclaw configure --section model --section channels9. 高度な設定
9.1 カスタムプロバイダーの追加
OpenAI互換のAPIを持つカスタムプロバイダーを追加できます:
{ models: { mode: "merge", providers: { myproxy: { baseUrl: "https://api.example.com/v1", apiKey: "${MY_PROXY_API_KEY}", api: "openai-completions", models: [ { id: "custom-model", name: "Custom Model", reasoning: false, input: ["text"], cost: { input: 0, output: 0, cacheRead: 0, cacheWrite: 0 }, contextWindow: 128000, maxTokens: 4096 } ] } } } }9.2 ローカルモデルの設定
Ollama、LM Studio、vLLMなどのローカルモデルを使用できます:
Ollama:
# Ollamaをインストール # https://ollama.com/download # モデルをプル ollama pull llama3.3 # OpenClawで設定 export OLLAMA_API_KEY="local" openclaw models set ollama/llama3.3LM Studio:
{ models: { providers: { lmstudio: { baseUrl: "http://127.0.0.1:1234/v1", apiKey: "lmstudio", api: "openai-responses", models: [ { id: "minimax-m2.5-gs32", name: "MiniMax M2.5", contextWindow: 196608, maxTokens: 8192 } ] } } } }9.3 OpenRouterの無料モデルスキャン
OpenRouterの無料モデルを自動的にスキャンして設定できます:
# 無料モデルをスキャン openclaw models scan # プローブなしでメタデータのみ openclaw models scan --no-probe # フィルタリング openclaw models scan --min-params 7 --max-age-days 90 # 最初の候補をデフォルトに設定 openclaw models scan --set-default10. まとめ
10.1 推奨設定パターン
初心者向け(最小設定):
# オンボーディングウィザードを実行 openclaw onboard --auth-choice zai-api-key # GLM-5のAPI キーを入力中級者向け(バランス重視):
{ agents: { defaults: { model: { primary: "zai/glm-5", fallbacks: ["openai-codex/gpt-5.3-codex"] } } } }上級者向け(ハイブリッド構成):
{ agents: { defaults: { model: { primary: "anthropic/claude-sonnet-4-5", fallbacks: ["zai/glm-5", "ollama/llama3.3"] }, models: { "anthropic/claude-sonnet-4-5": { alias: "Sonnet" }, "zai/glm-5": { alias: "GLM" }, "ollama/llama3.3": { alias: "Local" } } } } }10.2 クイックリファレンス
タスク コマンド モデル一覧表示 openclaw models list現在の設定確認 openclaw models statusモデル変更(CLI) openclaw models set <model>モデル変更(チャット) /model <model>フォールバック追加 openclaw models fallbacks add <model>オンボーディング openclaw onboard設定ウィザード openclaw configure10.3 さらなる情報
- 公式ドキュメント: OpenClawの包括的なドキュメントは
~/.npm-global/lib/node_modules/openclaw/docs/にあります - GLM-5の詳細: https://z.ai/subscribe?ic=N8AIUB4QXV
- トラブルシューティング: 本ガイドの第7章を参照
- サブエージェントの活用: 複雑なタスクを効率化する方法も解説
🚀 その他の人気記事
OpenClawのモデル設定を理解することで、用途に応じて最適なAIモデルを選択し、コストとパフォーマンスのバランスを取ることができます。まずはデフォルトのGLM-5から始め、必要に応じて他のモデルを試してみてください。
GLM-5を今すぐ試す: https://z.ai/subscribe?ic=N8AIUB4QXV


コメント