—
title: “OpenClaw モデル設定完全ガイド:デフォルトモデルの変更からトラブルシューティングまで”
description: “OpenClawでモデルを変更する方法を詳しく解説。SOUL.mdでのデフォルト設定、/modelコマンドによるセッションごとの変更、環境変数での設定方法など、初心者にもわかりやすく説明します。”
date: “2026-03-19”
draft: true
categories: [“OpenClaw”, “AI”, “設定ガイド”]
tags: [“OpenClaw”, “モデル変更”, “GLM”, “GPT”, “Claude”, “設定”]
—
OpenClaw モデル設定完全ガイド:デフォルトモデルの変更からトラブルシューティングまで
はじめに:なぜOpenClawでモデルを変更するのか
OpenClawは複数のAIモデルプロバイダーに対応した強力なAIアシスタントプラットフォームです。デフォルトではzai/glm-5(GLM-5)が設定されていますが、用途や予算、パフォーマンス要件に応じて最適なモデルを選択することが重要です。
モデル選択が重要な理由
本ガイドでは、OpenClawでのモデル設定方法を初心者にもわかりやすく解説します。
—
1. モデル設定方法の概要
OpenClawでモデルを設定する方法は主に3つあります:
| 方法 | 用途 | 難易度 |
|——|——|——–|
| 設定ファイル(openclaw.json) | デフォルトモデルの永続的設定 | 中級 |
| /model コマンド | セッションごとの一時的変更 | 初級 |
| 環境変数 | API キーやプロバイダー設定 | 上級 |
それぞれの方法を詳しく見ていきましょう。
—
2. 設定ファイルでのデフォルトモデル設定
2.1 openclaw.json の基本構造
OpenClawの設定は~/.openclaw/openclaw.jsonファイルに保存されます。モデル関連の主要な設定項目は以下の通りです:
{
agents: {
defaults: {
model: {
primary: "zai/glm-5", // プライマリモデル
fallbacks: [ // フォールバックモデル(優先順)
"openai-codex/gpt-5.3-codex",
"anthropic/claude-sonnet-4-5"
]
},
imageModel: {
primary: "anthropic/claude-sonnet-4-5", // 画像処理用モデル
fallbacks: []
},
models: { // モデルエイリアス定義
"zai/glm-5": { alias: "GLM-5" },
"openai-codex/gpt-5.3-codex": { alias: "Codex" },
"anthropic/claude-sonnet-4-5": { alias: "Sonnet" }
}
}
}
}2.2 CLIコマンドでの設定
設定ファイルを直接編集せず、CLIコマンドを使用してモデルを設定することもできます:
# プライマリモデルを設定
openclaw models set zai/glm-5または エイリアスを使用
openclaw models set GLM-5画像処理用モデルを設定
openclaw models set-image anthropic/claude-sonnet-4-5現在の設定を確認
openclaw models status2.3 フォールバックモデルの設定
フォールバックモデルを設定することで、プライマリモデルが利用できない場合に自動的に代替モデルへ切り替わります:
# フォールバックモデルを追加
openclaw models fallbacks add openai-codex/gpt-5.3-codex
openclaw models fallbacks add anthropic/claude-sonnet-4-5フォールバックリストを確認
openclaw models fallbacks listフォールバックモデルを削除
openclaw models fallbacks remove openai-codex/gpt-5.3-codexすべてのフォールバックをクリア
openclaw models fallbacks clear2.4 モデルエイリアスの設定
よく使用するモデルに短いエイリアスを設定すると便利です:
# エイリアスを追加
openclaw models aliases add glm zai/glm-5
openclaw models aliases add codex openai-codex/gpt-5.3-codexエイリアスリストを確認
openclaw models aliases listエイリアスを使用してモデルを設定
openclaw models set glm—
3. /model コマンドでのセッションごとの変更
3.1 基本的な使い方
チャットセッション内で/modelコマンドを使用すると、そのセッションのみで使用するモデルを変更できます:
# モデル選択メニューを表示
/modelモデル一覧を表示
/model list番号で選択
/model 3モデル名で直接指定
/model openai-codex/gpt-5.3-codexエイリアスで指定
/model codex現在のモデル状態を確認
/model status3.2 Discordでのモデル変更
Discordでは、/modelおよび/modelsコマンドがインタラクティブなピッカーを表示します:
/modelと入力3.3 モデル参照のルール
モデル参照はprovider/modelの形式で指定します:
# 正しい形式
/model openai/gpt-5.4
/model anthropic/claude-opus-4-6
/model zai/glm-5プロバイダーを省略(デフォルトプロバイダーのモデルとして解釈)
/model gpt-5.4 # 注意: モデルIDに「/」が含まれる場合は機能しないOpenRouterスタイル(モデルIDに「/」を含む場合)
/model openrouter/moonshotai/kimi-k2重要: モデルID自体に/が含まれる場合(OpenRouterスタイル)、必ずプロバイダープレフィックスを含める必要があります。
—
4. 環境変数での設定
4.1 API キーの環境変数
各プロバイダーのAPI キーは環境変数で設定します:
# Z.AI (GLM)
export ZAIAPIKEY="your-zai-api-key"OpenAI
export OPENAIAPIKEY="your-openai-api-key"Anthropic
export ANTHROPICAPIKEY="your-anthropic-api-key"OpenCode
export OPENCODEAPIKEY="your-opencode-api-key"Google Gemini
export GEMINIAPIKEY="your-gemini-api-key"OpenRouter
export OPENROUTERAPIKEY="your-openrouter-api-key"4.2 API キーローテーション
複数のAPI キーを設定することで、レートリミット時に自動的にキーをローテーションできます:
# カンマまたはセミコロン区切りで複数キーを設定
export OPENAIAPIKEYS="key1,key2,key3"または番号付きで設定
export OPENAIAPIKEY1="first-key"
export OPENAIAPIKEY2="second-key"
export OPENAIAPIKEY3="third-key"ライブオーバーライド(最高優先度)
export OPENCLAWLIVEOPENAIKEY="override-key"4.3 プロバイダー別のローテーション対応
以下のプロバイダーがAPI キーローテーションに対応しています:
OPENAIAPIKEYS, OPENCLAWLIVEOPENAIKEY)ANTHROPICAPIKEYS, OPENCLAWLIVEANTHROPICKEY)GEMINIAPIKEYS, GOOGLEAPIKEY, OPENCLAWLIVEGEMINIKEY)—
5. 利用可能なモデル一覧
5.1 Z.AI (GLM) – デフォルトプロバイダー
プロバイダー: zai
認証: ZAIAPIKEY
推奨モデル: zai/glm-5
GLM-5は、中国のZ.AIが開発した大規模言語モデルで、多言語対応と高いコストパフォーマンスが特徴です。
{
agents: {
defaults: { model: { primary: "zai/glm-5" } }
}
}GLM-5の特徴:
GLM-5の詳細・登録: https://z.ai/subscribe?ic=N8AIUB4QXV
5.2 OpenAI Code (Codex) – プログラミング特化
プロバイダー: openai-codex
認証: OAuth(ChatGPT)
推奨モデル: openai-codex/gpt-5.4
Codexはプログラミングタスクに特化したOpenAIのモデルで、コード生成、デバッグ、リファクタリングに優れています。
# OAuth認証を開始
openclaw models auth login --provider openai-codex主なモデル:
openai-codex/gpt-5.4 – 最新の高性能モデルopenai-codex/gpt-5.3-codex – 安定版5.3 Anthropic Claude – 高品質な対話
プロバイダー: anthropic
認証: ANTHROPICAPIKEY または claude setup-token
推奨モデル: anthropic/claude-opus-4-6, anthropic/claude-sonnet-4-5
Claudeは長文の理解と生成に優れ、複雑なタスクや長い会話に適しています。
# API キー認証
export ANTHROPICAPIKEY="your-api-key"または setup-token 認証
claude setup-token
openclaw models status主なモデル:
anthropic/claude-opus-4-6 – 最も高性能なモデル(高コスト)anthropic/claude-sonnet-4-5 – バランスの取れたモデル5.4 OpenCode – 統合コーディング環境
プロバイダー: opencode(Zen), opencode-go(Go)
認証: OPENCODEAPIKEY
推奨モデル: opencode/claude-opus-4-6
export OPENCODEAPIKEY="your-opencode-api-key"
openclaw models set opencode/claude-opus-4-65.5 Google Gemini – マルチモーダル対応
プロバイダー: google
認証: GEMINIAPIKEY
推奨モデル: google/gemini-3.1-pro-preview, google/gemini-3-flash-preview
export GEMINIAPIKEY="your-gemini-api-key"
openclaw models set google/gemini-3.1-pro-preview5.6 その他のプロバイダー
| プロバイダー | 認証 | 例モデル | 特徴 |
|————-|——|———-|——|
| OpenRouter | OPENROUTERAPIKEY | openrouter/anthropic/claude-sonnet-4-5 | 複数モデルへの統合アクセス |
| xAI | XAIAPIKEY | xai/grok | Grokモデル |
| Mistral | MISTRALAPIKEY | mistral/mistral-large-latest | ヨーロッパ発の高性能モデル |
| Groq | GROQAPIKEY | – | 高速推論 |
| Cerebras | CEREBRASAPIKEY | – | 高速推論 |
5.7 モデル一覧の確認
利用可能なモデルを確認するには:
# 設定済みモデルを表示
openclaw models list全カタログを表示
openclaw models list --allローカルプロバイダーのみ
openclaw models list --local特定プロバイダーでフィルタ
openclaw models list --provider openaiJSON形式で出力
openclaw models list --json—
6. モデル切り替えの注意点
6.1 Reasoningモデル vs 通常モデル
OpenClawは「Reasoning(推論)」機能を持つモデルをサポートしています。Reasoningモデルは回答前に内部で推論を行い、より正確な回答を生成します。
Reasoningモデルの特徴:
/reasoning on|off|streamコマンドで可視性を制御可能Reasoningモデルの例:
zai/glm-5(Reasoning対応)openai/gpt-5.4(Reasoning対応)anthropic/claude-opus-4-6(Reasoning対応)設定での制御:
{
agents: {
defaults: {
models: {
"zai/glm-5": {
reasoning: true, // Reasoning機能を有効化
alias: "GLM-5"
}
}
}
}
}6.2 コストとパフォーマンスの違い
モデルによってコストとパフォーマンスが大きく異なります:
| モデルタイプ | コスト | パフォーマンス | 推奨用途 |
|————-|——–|—————|———-|
| Opus/Ultra級 | 高 | 最高 | 複雑な推論、重要なタスク |
| Sonnet/Pro級 | 中 | 高 | 通常のタスク、バランス重視 |
| Flash/Haiku級 | 低 | 中 | 単純なタスク、高速応答 |
| 無料枠 | 無料 | 低〜中 | テスト、軽微なタスク |
コスト最適化のヒント:
6.3 コンテキストウィンドウと最大トークン数
モデルごとにコンテキストウィンドウ(一度に処理できるテキスト量)と最大トークン数が異なります:
{
models: {
providers: {
custom: {
models: [
{
id: "my-model",
contextWindow: 200000, // コンテキストウィンドウサイズ
maxTokens: 8192 // 最大生成トークン数
}
]
}
}
}
}重要: 長い会話や大きなファイルを扱う場合は、十分なコンテキストウィンドウを持つモデルを選択してください。
6.4 画像処理モデルの設定
画像を処理する必要がある場合、imageModelを設定します:
# 画像処理用モデルを設定
openclaw models set-image anthropic/claude-sonnet-4-5画像処理用フォールバックを追加
openclaw models image-fallbacks add openai/gpt-5.4確認
openclaw models status—
7. トラブルシューティング
7.1 「Model is not allowed」エラー
症状: モデル変更時に「Model “provider/model” is not allowed. Use /model to list available models.」と表示される
原因: agents.defaults.modelsが設定されている場合、それがモデルの許可リスト(allowlist)として機能します。リストに含まれないモデルは選択できません。
解決策:
# 方法1: 許可リストにモデルを追加
openclaw.jsonを編集
{
agents: {
defaults: {
models: {
"zai/glm-5": { alias: "GLM-5" },
"openai-codex/gpt-5.4": { alias: "Codex" }, // 追加
}
}
}
}方法2: 許可リストをクリア(すべてのモデルを許可)
openclaw.jsonからagents.defaults.modelsを削除
方法3: /model listで許可されたモデルを確認
/model list7.2 モデルが切り替わらない
症状: /modelコマンドを実行してもモデルが変更されない
確認事項:
openclaw models status
「Missing auth」セクションがないか確認
# 間違い(プロバイダー省略、モデルIDに「/」を含む)
/model moonshotai/kimi-k2正しい(プロバイダーを含める)
/model openrouter/moonshotai/kimi-k2/new
または
/reset7.3 認証エラー
症状: 「Missing auth」や「Unauthorized」エラーが表示される
解決策:
# API キーを設定
export ZAIAPIKEY="your-api-key"または対話的に設定
openclaw configure --section modelOAuth認証(該当プロバイダーの場合)
openclaw models auth login --provider openai-codex7.4 レートリミットエラー
症状: 「Rate limit exceeded」や「429」エラーが頻発する
解決策:
export OPENAIAPIKEYS="key1,key2,key3"openclaw models fallbacks add zai/glm-5
openclaw models fallbacks add anthropic/claude-sonnet-4-5openclaw onboard7.5 OAuth トークンの期限切れ
症状: OAuth認証済みプロバイダーで突然認証エラーが発生
確認:
openclaw models status
OAuth expiry statusを確認
解決策:
# 再認証
openclaw models auth login --provider openai-codex7.6 モデルの応答が遅い
原因と解決策:
| 原因 | 解決策 |
|——|——–|
| Reasoningモデルを使用中 | /reasoning offで推論表示を無効化、または非Reasoningモデルに切り替え |
| ネットワーク遅延 | ローカルモデル(Ollama等)の検討 |
| サーバー負荷 | フォールバックモデルの設定 |
| 高負荷なタスク | より高性能なモデルに切り替え |
—
8. セットアップウィザードの活用
8.1 オンボーディングウィザード
OpenClawには対話的なセットアップウィザードが用意されています:
openclaw onboardウィザードでは以下を設定できます:
8.2 プロバイダー別のオンボーディング
# OpenAI API キー
openclaw onboard --auth-choice openai-api-keyOpenAI Codex OAuth
openclaw onboard --auth-choice openai-codexAnthropic
openclaw onboard --auth-choice tokenOpenCode Zen
openclaw onboard --auth-choice opencode-zenGoogle Gemini
openclaw onboard --auth-choice gemini-api-keyZ.AI (GLM)
openclaw onboard --auth-choice zai-api-key8.3 設定ウィザード
より詳細な設定を行う場合:
# 完全な設定ウィザード
openclaw configure特定セクションのみ
openclaw configure --section model --section channels—
9. 高度な設定
9.1 カスタムプロバイダーの追加
OpenAI互換のAPIを持つカスタムプロバイダーを追加できます:
{
models: {
mode: "merge",
providers: {
myproxy: {
baseUrl: "https://api.example.com/v1",
apiKey: "${MYPROXYAPIKEY}",
api: "openai-completions",
models: [
{
id: "custom-model",
name: "Custom Model",
reasoning: false,
input: ["text"],
cost: { input: 0, output: 0, cacheRead: 0, cacheWrite: 0 },
contextWindow: 128000,
maxTokens: 4096
}
]
}
}
}
}9.2 ローカルモデルの設定
Ollama、LM Studio、vLLMなどのローカルモデルを使用できます:
Ollama:
# Ollamaをインストール
https://ollama.com/download
モデルをプル
ollama pull llama3.3OpenClawで設定
export OLLAMAAPIKEY="local"
openclaw models set ollama/llama3.3LM Studio:
{
models: {
providers: {
lmstudio: {
baseUrl: "http://127.0.0.1:1234/v1",
apiKey: "lmstudio",
api: "openai-responses",
models: [
{
id: "minimax-m2.5-gs32",
name: "MiniMax M2.5",
contextWindow: 196608,
maxTokens: 8192
}
]
}
}
}
}9.3 OpenRouterの無料モデルスキャン
OpenRouterの無料モデルを自動的にスキャンして設定できます:
# 無料モデルをスキャン
openclaw models scanプローブなしでメタデータのみ
openclaw models scan --no-probeフィルタリング
openclaw models scan --min-params 7 --max-age-days 90最初の候補をデフォルトに設定
openclaw models scan --set-default—
10. まとめ
10.1 推奨設定パターン
初心者向け(最小設定):
# オンボーディングウィザードを実行
openclaw onboard --auth-choice zai-api-key
GLM-5のAPI キーを入力
中級者向け(バランス重視):
{
agents: {
defaults: {
model: {
primary: "zai/glm-5",
fallbacks: ["openai-codex/gpt-5.3-codex"]
}
}
}
}上級者向け(ハイブリッド構成):
{
agents: {
defaults: {
model: {
primary: "anthropic/claude-sonnet-4-5",
fallbacks: ["zai/glm-5", "ollama/llama3.3"]
},
models: {
"anthropic/claude-sonnet-4-5": { alias: "Sonnet" },
"zai/glm-5": { alias: "GLM" },
"ollama/llama3.3": { alias: "Local" }
}
}
}
}10.2 クイックリファレンス
| タスク | コマンド |
|——–|———-|
| モデル一覧表示 | openclaw models list |
| 現在の設定確認 | openclaw models status |
| モデル変更(CLI) | openclaw models set |
| モデル変更(チャット) | /model |
| フォールバック追加 | openclaw models fallbacks add |
| オンボーディング | openclaw onboard |
| 設定ウィザード | openclaw configure |
10.3 さらなる情報
~/.npm-global/lib/node_modules/openclaw/docs/にあります—
OpenClawのモデル設定を理解することで、用途に応じて最適なAIモデルを選択し、コストとパフォーマンスのバランスを取ることができます。まずはデフォルトのGLM-5から始め、必要に応じて他のモデルを試してみてください。
GLM-5を今すぐ試す: https://z.ai/subscribe?ic=N8AIUB4QXV
📖 おすすめの関連書籍
OpenClawとAIアシスタントの設定・活用を深めたい方に、関連書籍をご紹介します。
- MCP(Model Context Protocol)実践ガイド – OpenClawのMCP機能を深く理解する


コメント