OpenClaw モデル設定完全ガイド:デフォルトモデルの変更からトラブルシューティングまで

未分類
Picsum ID: 805


title: “OpenClaw モデル設定完全ガイド:デフォルトモデルの変更からトラブルシューティングまで”
description: “OpenClawでモデルを変更する方法を詳しく解説。SOUL.mdでのデフォルト設定、/modelコマンドによるセッションごとの変更、環境変数での設定方法など、初心者にもわかりやすく説明します。”
date: “2026-03-19”
draft: true
categories: [“OpenClaw”, “AI”, “設定ガイド”]
tags: [“OpenClaw”, “モデル変更”, “GLM”, “GPT”, “Claude”, “設定”]

OpenClaw モデル設定完全ガイド:デフォルトモデルの変更からトラブルシューティングまで

  1. はじめに:なぜOpenClawでモデルを変更するのか
    1. モデル選択が重要な理由
  2. 1. モデル設定方法の概要
  3. 2. 設定ファイルでのデフォルトモデル設定
    1. 2.1 openclaw.json の基本構造
    2. 2.2 CLIコマンドでの設定
    3. 2.3 フォールバックモデルの設定
    4. 2.4 モデルエイリアスの設定
  4. 3. /model コマンドでのセッションごとの変更
    1. 3.1 基本的な使い方
    2. 3.2 Discordでのモデル変更
    3. 3.3 モデル参照のルール
  5. 4. 環境変数での設定
    1. 4.1 API キーの環境変数
    2. 4.2 API キーローテーション
    3. 4.3 プロバイダー別のローテーション対応
  6. 5. 利用可能なモデル一覧
    1. 5.1 Z.AI (GLM) – デフォルトプロバイダー
    2. 5.2 OpenAI Code (Codex) – プログラミング特化
    3. 5.3 Anthropic Claude – 高品質な対話
    4. 5.4 OpenCode – 統合コーディング環境
    5. 5.5 Google Gemini – マルチモーダル対応
    6. 5.6 その他のプロバイダー
    7. 5.7 モデル一覧の確認
  7. 6. モデル切り替えの注意点
    1. 6.1 Reasoningモデル vs 通常モデル
    2. 6.2 コストとパフォーマンスの違い
    3. 6.3 コンテキストウィンドウと最大トークン数
    4. 6.4 画像処理モデルの設定
  8. 7. トラブルシューティング
    1. 7.1 「Model is not allowed」エラー
    2. 7.2 モデルが切り替わらない
    3. 7.3 認証エラー
    4. 7.4 レートリミットエラー
    5. 7.5 OAuth トークンの期限切れ
    6. 7.6 モデルの応答が遅い
  9. 8. セットアップウィザードの活用
    1. 8.1 オンボーディングウィザード
    2. 8.2 プロバイダー別のオンボーディング
    3. 8.3 設定ウィザード
  10. 9. 高度な設定
    1. 9.1 カスタムプロバイダーの追加
    2. 9.2 ローカルモデルの設定
    3. 9.3 OpenRouterの無料モデルスキャン
  11. 10. まとめ
    1. 10.1 推奨設定パターン
    2. 10.2 クイックリファレンス
    3. 10.3 さらなる情報
  12. 📖 おすすめの関連書籍

はじめに:なぜOpenClawでモデルを変更するのか

OpenClawは複数のAIモデルプロバイダーに対応した強力なAIアシスタントプラットフォームです。デフォルトではzai/glm-5(GLM-5)が設定されていますが、用途や予算、パフォーマンス要件に応じて最適なモデルを選択することが重要です。

モデル選択が重要な理由

  • タスクに最適なパフォーマンス: プログラミングタスクにはCodex系モデル、一般的な会話には汎用モデル、推論タスクにはReasoningモデルなど、用途に応じた選択が可能
  • コスト最適化: 高性能モデルは高コスト、軽量モデルは低コスト。バランスの取れた選択が重要
  • レートリミット対策: 複数のモデルをフォールバック設定しておくことで、API制限時も継続利用可能
  • 機能の違い: 一部のモデルは画像認識、長文コンテキスト、推論機能など、モデルごとに異なる機能を提供
  • 本ガイドでは、OpenClawでのモデル設定方法を初心者にもわかりやすく解説します。

    1. モデル設定方法の概要

    OpenClawでモデルを設定する方法は主に3つあります:

    | 方法 | 用途 | 難易度 |
    |——|——|——–|
    | 設定ファイル(openclaw.json) | デフォルトモデルの永続的設定 | 中級 |
    | /model コマンド | セッションごとの一時的変更 | 初級 |
    | 環境変数 | API キーやプロバイダー設定 | 上級 |

    それぞれの方法を詳しく見ていきましょう。

    2. 設定ファイルでのデフォルトモデル設定

    2.1 openclaw.json の基本構造

    OpenClawの設定は~/.openclaw/openclaw.jsonファイルに保存されます。モデル関連の主要な設定項目は以下の通りです:

    {
    agents: {
    defaults: {
    model: {
    primary: "zai/glm-5", // プライマリモデル
    fallbacks: [ // フォールバックモデル(優先順)
    "openai-codex/gpt-5.3-codex",
    "anthropic/claude-sonnet-4-5"
    ]
    },
    imageModel: {
    primary: "anthropic/claude-sonnet-4-5", // 画像処理用モデル
    fallbacks: []
    },
    models: { // モデルエイリアス定義
    "zai/glm-5": { alias: "GLM-5" },
    "openai-codex/gpt-5.3-codex": { alias: "Codex" },
    "anthropic/claude-sonnet-4-5": { alias: "Sonnet" }
    }
    }
    }
    }

    2.2 CLIコマンドでの設定

    設定ファイルを直接編集せず、CLIコマンドを使用してモデルを設定することもできます:

    # プライマリモデルを設定
    openclaw models set zai/glm-5

    または エイリアスを使用


    openclaw models set GLM-5

    画像処理用モデルを設定


    openclaw models set-image anthropic/claude-sonnet-4-5

    現在の設定を確認


    openclaw models status

    2.3 フォールバックモデルの設定

    フォールバックモデルを設定することで、プライマリモデルが利用できない場合に自動的に代替モデルへ切り替わります:

    # フォールバックモデルを追加
    openclaw models fallbacks add openai-codex/gpt-5.3-codex
    openclaw models fallbacks add anthropic/claude-sonnet-4-5

    フォールバックリストを確認


    openclaw models fallbacks list

    フォールバックモデルを削除


    openclaw models fallbacks remove openai-codex/gpt-5.3-codex

    すべてのフォールバックをクリア


    openclaw models fallbacks clear

    2.4 モデルエイリアスの設定

    よく使用するモデルに短いエイリアスを設定すると便利です:

    # エイリアスを追加
    openclaw models aliases add glm zai/glm-5
    openclaw models aliases add codex openai-codex/gpt-5.3-codex

    エイリアスリストを確認


    openclaw models aliases list

    エイリアスを使用してモデルを設定


    openclaw models set glm

    3. /model コマンドでのセッションごとの変更

    3.1 基本的な使い方

    チャットセッション内で/modelコマンドを使用すると、そのセッションのみで使用するモデルを変更できます:

    # モデル選択メニューを表示
    /model

    モデル一覧を表示


    /model list

    番号で選択


    /model 3

    モデル名で直接指定


    /model openai-codex/gpt-5.3-codex

    エイリアスで指定


    /model codex

    現在のモデル状態を確認


    /model status

    3.2 Discordでのモデル変更

    Discordでは、/modelおよび/modelsコマンドがインタラクティブなピッカーを表示します:

  • /modelと入力
  • プロバイダーのドロップダウンから選択
  • モデルのドロップダウンから選択
  • 「Submit」ボタンをクリック
  • 3.3 モデル参照のルール

    モデル参照はprovider/modelの形式で指定します:

    # 正しい形式
    /model openai/gpt-5.4
    /model anthropic/claude-opus-4-6
    /model zai/glm-5

    プロバイダーを省略(デフォルトプロバイダーのモデルとして解釈)


    /model gpt-5.4 # 注意: モデルIDに「/」が含まれる場合は機能しない

    OpenRouterスタイル(モデルIDに「/」を含む場合)


    /model openrouter/moonshotai/kimi-k2

    重要: モデルID自体に/が含まれる場合(OpenRouterスタイル)、必ずプロバイダープレフィックスを含める必要があります。

    4. 環境変数での設定

    4.1 API キーの環境変数

    各プロバイダーのAPI キーは環境変数で設定します:

    # Z.AI (GLM)
    export ZAIAPIKEY="your-zai-api-key"

    OpenAI


    export OPENAIAPIKEY="your-openai-api-key"

    Anthropic


    export ANTHROPICAPIKEY="your-anthropic-api-key"

    OpenCode


    export OPENCODEAPIKEY="your-opencode-api-key"

    Google Gemini


    export GEMINIAPIKEY="your-gemini-api-key"

    OpenRouter


    export OPENROUTERAPIKEY="your-openrouter-api-key"

    4.2 API キーローテーション

    複数のAPI キーを設定することで、レートリミット時に自動的にキーをローテーションできます:

    # カンマまたはセミコロン区切りで複数キーを設定
    export OPENAIAPIKEYS="key1,key2,key3"

    または番号付きで設定


    export OPENAIAPIKEY1="first-key"
    export OPENAI
    APIKEY2="second-key"
    export OPENAIAPIKEY3="third-key"

    ライブオーバーライド(最高優先度)


    export OPENCLAW
    LIVEOPENAIKEY="override-key"

    4.3 プロバイダー別のローテーション対応

    以下のプロバイダーがAPI キーローテーションに対応しています:

  • OpenAI (OPENAIAPIKEYS, OPENCLAWLIVEOPENAIKEY)
  • Anthropic (ANTHROPICAPIKEYS, OPENCLAWLIVEANTHROPICKEY)
  • Google Gemini (GEMINIAPIKEYS, GOOGLEAPIKEY, OPENCLAWLIVEGEMINIKEY)
  • 5. 利用可能なモデル一覧

    5.1 Z.AI (GLM) – デフォルトプロバイダー

    プロバイダー: zai
    認証: ZAI
    APIKEY
    推奨モデル: zai/glm-5

    GLM-5は、中国のZ.AIが開発した大規模言語モデルで、多言語対応と高いコストパフォーマンスが特徴です。

    {
    agents: {
    defaults: { model: { primary: "zai/glm-5" } }
    }
    }

    GLM-5の特徴:

  • 多言語対応(日本語、中国語、英語など)
  • 長いコンテキストウィンドウ
  • 高いコストパフォーマンス
  • 推論(Reasoning)機能のサポート
  • GLM-5の詳細・登録: https://z.ai/subscribe?ic=N8AIUB4QXV

    5.2 OpenAI Code (Codex) – プログラミング特化

    プロバイダー: openai-codex
    認証: OAuth(ChatGPT)
    推奨モデル: openai-codex/gpt-5.4

    Codexはプログラミングタスクに特化したOpenAIのモデルで、コード生成、デバッグ、リファクタリングに優れています。

    # OAuth認証を開始
    openclaw models auth login --provider openai-codex

    主なモデル:

  • openai-codex/gpt-5.4 – 最新の高性能モデル
  • openai-codex/gpt-5.3-codex – 安定版
  • 5.3 Anthropic Claude – 高品質な対話

    プロバイダー: anthropic
    認証: ANTHROPIC
    APIKEY または claude setup-token
    推奨モデル: anthropic/claude-opus-4-6, anthropic/claude-sonnet-4-5

    Claudeは長文の理解と生成に優れ、複雑なタスクや長い会話に適しています。

    # API キー認証
    export ANTHROPIC
    APIKEY="your-api-key"

    または setup-token 認証


    claude setup-token
    openclaw models status

    主なモデル:

  • anthropic/claude-opus-4-6 – 最も高性能なモデル(高コスト)
  • anthropic/claude-sonnet-4-5 – バランスの取れたモデル
  • 5.4 OpenCode – 統合コーディング環境

    プロバイダー: opencode(Zen), opencode-go(Go)
    認証: OPENCODE
    APIKEY
    推奨モデル: opencode/claude-opus-4-6

    export OPENCODEAPIKEY="your-opencode-api-key"
    openclaw models set opencode/claude-opus-4-6

    5.5 Google Gemini – マルチモーダル対応

    プロバイダー: google
    認証: GEMINI
    APIKEY
    推奨モデル: google/gemini-3.1-pro-preview, google/gemini-3-flash-preview

    export GEMINIAPIKEY="your-gemini-api-key"
    openclaw models set google/gemini-3.1-pro-preview

    5.6 その他のプロバイダー

    | プロバイダー | 認証 | 例モデル | 特徴 |
    |————-|——|———-|——|
    | OpenRouter | OPENROUTER
    APIKEY | openrouter/anthropic/claude-sonnet-4-5 | 複数モデルへの統合アクセス |
    | xAI | XAI
    APIKEY | xai/grok | Grokモデル |
    | Mistral | MISTRAL
    APIKEY | mistral/mistral-large-latest | ヨーロッパ発の高性能モデル |
    | Groq | GROQ
    APIKEY | – | 高速推論 |
    | Cerebras | CEREBRAS
    APIKEY | – | 高速推論 |

    5.7 モデル一覧の確認

    利用可能なモデルを確認するには:

    # 設定済みモデルを表示
    openclaw models list

    全カタログを表示


    openclaw models list --all

    ローカルプロバイダーのみ


    openclaw models list --local

    特定プロバイダーでフィルタ


    openclaw models list --provider openai

    JSON形式で出力


    openclaw models list --json

    6. モデル切り替えの注意点

    6.1 Reasoningモデル vs 通常モデル

    OpenClawは「Reasoning(推論)」機能を持つモデルをサポートしています。Reasoningモデルは回答前に内部で推論を行い、より正確な回答を生成します。

    Reasoningモデルの特徴:

  • 複雑な問題解決に適している
  • 回答までに時間がかかる場合がある
  • /reasoning on|off|streamコマンドで可視性を制御可能
  • Reasoningモデルの例:

  • zai/glm-5(Reasoning対応)
  • openai/gpt-5.4(Reasoning対応)
  • anthropic/claude-opus-4-6(Reasoning対応)
  • 設定での制御:

    {
    agents: {
    defaults: {
    models: {
    "zai/glm-5": {
    reasoning: true, // Reasoning機能を有効化
    alias: "GLM-5"
    }
    }
    }
    }
    }

    6.2 コストとパフォーマンスの違い

    モデルによってコストとパフォーマンスが大きく異なります:

    | モデルタイプ | コスト | パフォーマンス | 推奨用途 |
    |————-|——–|—————|———-|
    | Opus/Ultra級 | 高 | 最高 | 複雑な推論、重要なタスク |
    | Sonnet/Pro級 | 中 | 高 | 通常のタスク、バランス重視 |
    | Flash/Haiku級 | 低 | 中 | 単純なタスク、高速応答 |
    | 無料枠 | 無料 | 低〜中 | テスト、軽微なタスク |

    コスト最適化のヒント:

  • 日常的なタスクには中コストモデルを使用
  • 重要なタスクのみ高コストモデルを使用
  • フォールバックに低コストモデルを設定
  • 無料枠のモデルをテスト用途に活用
  • 6.3 コンテキストウィンドウと最大トークン数

    モデルごとにコンテキストウィンドウ(一度に処理できるテキスト量)と最大トークン数が異なります:

    {
    models: {
    providers: {
    custom: {
    models: [
    {
    id: "my-model",
    contextWindow: 200000, // コンテキストウィンドウサイズ
    maxTokens: 8192 // 最大生成トークン数
    }
    ]
    }
    }
    }
    }

    重要: 長い会話や大きなファイルを扱う場合は、十分なコンテキストウィンドウを持つモデルを選択してください。

    6.4 画像処理モデルの設定

    画像を処理する必要がある場合、imageModelを設定します:

    # 画像処理用モデルを設定
    openclaw models set-image anthropic/claude-sonnet-4-5

    画像処理用フォールバックを追加


    openclaw models image-fallbacks add openai/gpt-5.4

    確認


    openclaw models status

    7. トラブルシューティング

    7.1 「Model is not allowed」エラー

    症状: モデル変更時に「Model “provider/model” is not allowed. Use /model to list available models.」と表示される

    原因: agents.defaults.modelsが設定されている場合、それがモデルの許可リスト(allowlist)として機能します。リストに含まれないモデルは選択できません。

    解決策:

    # 方法1: 許可リストにモデルを追加

    openclaw.jsonを編集


    {
    agents: {
    defaults: {
    models: {
    "zai/glm-5": { alias: "GLM-5" },
    "openai-codex/gpt-5.4": { alias: "Codex" }, // 追加
    }
    }
    }
    }

    方法2: 許可リストをクリア(すべてのモデルを許可)


    openclaw.jsonからagents.defaults.modelsを削除

    方法3: /model listで許可されたモデルを確認


    /model list

    7.2 モデルが切り替わらない

    症状: /modelコマンドを実行してもモデルが変更されない

    確認事項:

  • 認証情報を確認:
  • openclaw models status

    「Missing auth」セクションがないか確認

  • プロバイダー名を確認:
  • # 間違い(プロバイダー省略、モデルIDに「/」を含む)
    /model moonshotai/kimi-k2

    正しい(プロバイダーを含める)


    /model openrouter/moonshotai/kimi-k2

  • セッションをリセット:
  • /new

    または


    /reset

    7.3 認証エラー

    症状: 「Missing auth」や「Unauthorized」エラーが表示される

    解決策:

    # API キーを設定
    export ZAI
    APIKEY="your-api-key"

    または対話的に設定


    openclaw configure --section model

    OAuth認証(該当プロバイダーの場合)


    openclaw models auth login --provider openai-codex

    7.4 レートリミットエラー

    症状: 「Rate limit exceeded」や「429」エラーが頻発する

    解決策:

  • 複数のAPI キーを設定:
  • export OPENAIAPIKEYS="key1,key2,key3"

  • フォールバックモデルを設定:
  • openclaw models fallbacks add zai/glm-5
    openclaw models fallbacks add anthropic/claude-sonnet-4-5

  • オンボーディングウィザードを実行:
  • openclaw onboard

    7.5 OAuth トークンの期限切れ

    症状: OAuth認証済みプロバイダーで突然認証エラーが発生

    確認:

    openclaw models status

    OAuth expiry statusを確認

    解決策:

    # 再認証
    openclaw models auth login --provider openai-codex

    7.6 モデルの応答が遅い

    原因と解決策:

    | 原因 | 解決策 |
    |——|——–|
    | Reasoningモデルを使用中 | /reasoning offで推論表示を無効化、または非Reasoningモデルに切り替え |
    | ネットワーク遅延 | ローカルモデル(Ollama等)の検討 |
    | サーバー負荷 | フォールバックモデルの設定 |
    | 高負荷なタスク | より高性能なモデルに切り替え |

    8. セットアップウィザードの活用

    8.1 オンボーディングウィザード

    OpenClawには対話的なセットアップウィザードが用意されています:

    openclaw onboard

    ウィザードでは以下を設定できます:

  • モデルプロバイダーの選択
  • API キーまたはOAuth認証の設定
  • デフォルトモデルの設定
  • 8.2 プロバイダー別のオンボーディング

    # OpenAI API キー
    openclaw onboard --auth-choice openai-api-key

    OpenAI Codex OAuth


    openclaw onboard --auth-choice openai-codex

    Anthropic


    openclaw onboard --auth-choice token

    OpenCode Zen


    openclaw onboard --auth-choice opencode-zen

    Google Gemini


    openclaw onboard --auth-choice gemini-api-key

    Z.AI (GLM)


    openclaw onboard --auth-choice zai-api-key

    8.3 設定ウィザード

    より詳細な設定を行う場合:

    # 完全な設定ウィザード
    openclaw configure

    特定セクションのみ


    openclaw configure --section model --section channels

    9. 高度な設定

    9.1 カスタムプロバイダーの追加

    OpenAI互換のAPIを持つカスタムプロバイダーを追加できます:

    {
    models: {
    mode: "merge",
    providers: {
    myproxy: {
    baseUrl: "https://api.example.com/v1",
    apiKey: "${MY
    PROXYAPIKEY}",
    api: "openai-completions",
    models: [
    {
    id: "custom-model",
    name: "Custom Model",
    reasoning: false,
    input: ["text"],
    cost: { input: 0, output: 0, cacheRead: 0, cacheWrite: 0 },
    contextWindow: 128000,
    maxTokens: 4096
    }
    ]
    }
    }
    }
    }

    9.2 ローカルモデルの設定

    Ollama、LM Studio、vLLMなどのローカルモデルを使用できます:

    Ollama:

    # Ollamaをインストール

    https://ollama.com/download

    モデルをプル


    ollama pull llama3.3

    OpenClawで設定


    export OLLAMAAPIKEY="local"
    openclaw models set ollama/llama3.3

    LM Studio:

    {
    models: {
    providers: {
    lmstudio: {
    baseUrl: "http://127.0.0.1:1234/v1",
    apiKey: "lmstudio",
    api: "openai-responses",
    models: [
    {
    id: "minimax-m2.5-gs32",
    name: "MiniMax M2.5",
    contextWindow: 196608,
    maxTokens: 8192
    }
    ]
    }
    }
    }
    }

    9.3 OpenRouterの無料モデルスキャン

    OpenRouterの無料モデルを自動的にスキャンして設定できます:

    # 無料モデルをスキャン
    openclaw models scan

    プローブなしでメタデータのみ


    openclaw models scan --no-probe

    フィルタリング


    openclaw models scan --min-params 7 --max-age-days 90

    最初の候補をデフォルトに設定


    openclaw models scan --set-default

    10. まとめ

    10.1 推奨設定パターン

    初心者向け(最小設定):

    # オンボーディングウィザードを実行
    openclaw onboard --auth-choice zai-api-key

    GLM-5のAPI キーを入力

    中級者向け(バランス重視):

    {
    agents: {
    defaults: {
    model: {
    primary: "zai/glm-5",
    fallbacks: ["openai-codex/gpt-5.3-codex"]
    }
    }
    }
    }

    上級者向け(ハイブリッド構成):

    {
    agents: {
    defaults: {
    model: {
    primary: "anthropic/claude-sonnet-4-5",
    fallbacks: ["zai/glm-5", "ollama/llama3.3"]
    },
    models: {
    "anthropic/claude-sonnet-4-5": { alias: "Sonnet" },
    "zai/glm-5": { alias: "GLM" },
    "ollama/llama3.3": { alias: "Local" }
    }
    }
    }
    }

    10.2 クイックリファレンス

    | タスク | コマンド |
    |——–|———-|
    | モデル一覧表示 | openclaw models list |
    | 現在の設定確認 | openclaw models status |
    | モデル変更(CLI) | openclaw models set |
    | モデル変更(チャット) | /model |
    | フォールバック追加 | openclaw models fallbacks add |
    | オンボーディング | openclaw onboard |
    | 設定ウィザード | openclaw configure |

    10.3 さらなる情報

  • 公式ドキュメント: OpenClawの包括的なドキュメントは~/.npm-global/lib/node_modules/openclaw/docs/にあります
  • GLM-5の詳細: https://z.ai/subscribe?ic=N8AIUB4QXV
  • トラブルシューティング: 本ガイドの第7章を参照
  • OpenClawのモデル設定を理解することで、用途に応じて最適なAIモデルを選択し、コストとパフォーマンスのバランスを取ることができます。まずはデフォルトのGLM-5から始め、必要に応じて他のモデルを試してみてください。

    GLM-5を今すぐ試す: https://z.ai/subscribe?ic=N8AIUB4QXV

    📖 おすすめの関連書籍

    OpenClawとAIアシスタントの設定・活用を深めたい方に、関連書籍をご紹介します。

    コメント

    タイトルとURLをコピーしました