OpenClaw で AI モデルを切り替える最速の方法は、ZenClaw を使うことです。OpenClaw マネージドサービスとして9秒でデプロイでき、ダッシュボードの「モデル切り替え」ボタンをワンクリックするだけで切り替わります。 一方、セルフホストの OpenClaw では ~/.openclaw/openclaw.json の編集、API キーの準備、gateway の再起動までを自分でこなす必要があり、JSON の構文エラー、キーの配置ミス、再起動後の反映漏れといった落とし穴が待っています。本記事では、セルフホストでの設定変更、ZenClaw UI での切り替え、そしてモデル選定の考え方を一気に解説します。
OpenClaw が対応するモデルは?
2026年4月時点の OpenClaw は、内蔵プロバイダおよび LiteLLM 経由で主要な LLM に接続できます。Claude(Haiku / Sonnet / Opus)、GPT-4o、Gemini、MiniMax、Kimi などが代表例です。ZenClaw ではプラン階層に応じて、Claude / GPT / Gemini といった主要モデルの組み合わせが提供され、NVIDIA Nemotron 関連モデルは NemoClaw サンドボックス統合経由で利用できます。 最新情報は OpenClaw 公式ドキュメント を基準としてください。コミュニティの更新ペースは速く、新モデルは発表後まもなく対応プロバイダが追加される流れです。モデルごとに呼び出し形式は異なるものの、OpenClaw は同一 API に抽象化しているため、切り替えは1フィールドの変更で完結します。
押さえておきたいポイントは以下のとおりです。
- Claude シリーズは Anthropic API 経由。キーは anthropic.com から取得します
- GPT-4o や o-series は OpenAI API 経由
- Gemini は Google AI Studio 経由
- Nemotron は NVIDIA のインフラで最大効率を発揮。ZenClaw のプランには NemoClaw サンドボックス(NVIDIA エンタープライズ級サンドボックスでの実行)を含むため、統合度が最も高くなります
セルフホスト:openclaw.json を編集する全体フロー
~/.openclaw/openclaw.json の model フィールドを編集し、対応プロバイダの API キーを credentials/ に配置したうえで gateway を再起動すれば反映されます。手順自体はシンプルですが、初回はどこかで必ず引っかかるのが実情です。 標準的な手順は次のとおりです。
- 設定ファイルの場所を確認:
ls ~/.openclaw/ # openclaw.json、sessions、agents、credentials、skills が見えるはず - バックアップを取ったうえで
openclaw.jsonを編集し、modelを"claude-sonnet"や"gpt-4o"などに変更 credentials/に対応プロバイダのキーを配置(ファイル名は OpenClaw の慣例に従う)- gateway を再起動(デプロイ方法に応じて systemd / docker restart / openclaw gateway restart などを使用)
- 1件メッセージを送って動作を確認
よくある落とし穴は次のようなものです。
- JSON 構文エラー:カンマが1つ多い、括弧が1つ足りないだけでも gateway は起動しません
- API キーのパス違い:プロバイダごとにファイルパスの規約が異なります
- ポート18789 がファイアウォールに遮断される:一見すると「反映されていない」ように見えるものの、実態は接続できていない状態です
- 権限問題:
credentials/のファイル権限を 600 にしていないと、gateway が読み取れない、あるいは漏洩リスクが残ります
OpenClaw gateway security ドキュメント を参照し、127.0.0.1 バインドとトークン長もあわせて整備しておきましょう。
ZenClaw ダッシュボード:ワンクリック切り替え(推奨)
ZenClaw ダッシュボードの「モデル切り替え」ボタンからプルダウンで対象モデルを選び、保存するだけ。キー管理、設定のリロード、バックアップからの復元まで、バックエンドで処理され、すべて UI クリックで完結します。 具体的な手順は以下のとおりです。
- zenclaw.ai にログインし、「AI社員を今すぐ雇用」をクリック
- 未デプロイなら「新しいOpenClawをデプロイ」をクリックし、9秒待機
- インスタンスカードの「モデル」セクションでプルダウンから対象モデルを選択
- 保存後、Telegram / LINE / Microsoft Teams ですぐにテスト
ZenClaw にはあらかじめ以下の仕組みが組み込まれています。
- キー管理:ZenClaw は自社の LiteLLM proxy(
litellm.mixerbox.ai)経由で上流 API キーをホスティングしているため、OpenRouter / Anthropic / OpenAI のキー申請やローテーションが不要です - 設定ファイルの自動バックアップ:OpenClaw は設定書き込み前に
.bakバックアップを残し、設定ファイルが破損しても doctor-fix から復元可能です - プラン内枠で請求を予測しやすい:Business プラン(月額 ¥60,000 / ¥120,000 / ¥180,000)にはモデル利用枠が含まれており、自前でトークン請求を抱える必要がありません。セルフホストでは、エージェントのループや skill の高頻度呼び出しで一晩のうちに請求が跳ね上がるケースがありますが、ZenClaw のプランは枠内固定で、上限に達すると自動停止します
- プラン階層別のモデル提供:プラン階層に応じて Claude Haiku / Sonnet / Opus、GPT、Gemini、Nemotron といった主要モデルの組み合わせを提供しているため、各プロバイダを自分で検証する手間が省けます
モデル選びの基本:代表的な3つのシナリオ
多くのケースでは Sonnet / GPT-4o など中位モデルから入り、低コストで大量処理したいときは Haiku、複雑な推論が必要なら Opus、NVIDIA インフラでのサンドボックス実行なら Nemotron が向いています。 早見表は次のとおりです。
| シナリオ | 推奨モデル | 理由 |
|---|---|---|
| 一般的なチャットボットカスタマーサポート | Claude Haiku / Sonnet、GPT-4o mini | 高速かつ低コスト、品質も十分 |
| 注文処理の自動化、複雑な意思決定 | Claude Sonnet、GPT-4o | 推論と tool use が安定 |
| 法規文書の分析、長文レポート | Claude Opus | 長いコンテキストと高度な推論 |
| NVIDIA エンタープライズサンドボックス | Nemotron(NemoClaw サンドボックス併用) | 統合度が最も高い |
| 日本語や多言語コンテンツ | Claude Sonnet、Kimi、MiniMax | 日本語の表現力が強い |
コスト面では、Claude Opus は Haiku に対して単位トークンあたりの料金が 数倍から十数倍 高くなる可能性があります(詳細は Anthropic pricing)。大量処理を始める前に、必ず確認しておきましょう。
踏みやすい落とし穴(セルフホスト vs ZenClaw)
セルフホストで最も多いのは JSON の破損、API キーの付け替え忘れ、gateway のリロード漏れの3点。ZenClaw ではこれらをすべてバックエンド側で処理しています。 セルフホスト時のチェックリストは次のとおりです。
- JSON 編集後は
jq . openclaw.jsonで構文を検証 - 新プロバイダのキーは正しいディレクトリに配置し、権限を 600 に設定
curl http://127.0.0.1:18789/healthで gateway の生存を確認- Opus など強力なモデルへ切り替える前に、1日あたりの請求上限を見積もり、コスト暴走を回避(API 請求額暴走の予防 を参照)
一方、ZenClaw 側では以下が担保されています。
- ダッシュボードがプラン階層に応じた利用可能モデルを提示するため、誤設定が起きにくい
- プランに枠が含まれるため、請求が暴走しない
- 設定ファイルの自動バックアップ(doctor-fix で復元可能)
- Telegram / LINE / Microsoft Teams の接続もクリック連携
結論
OpenClaw でのモデル切り替えは本来 JSON 1行の作業ですが、セルフホストではキー管理、リロード、バックアップまでケアする必要があります。ZenClaw のダッシュボードなら、ここがワンクリックで完了します。 週末を openclaw.json のデバッグで溶かしたくなければ、ZenClaw をお選びください。トップページの「AI社員を今すぐ雇用」をクリックすれば9秒で開始でき、以降のモデル切り替えも常にワンクリックです。