MoleAPIMoleAPI
ドキュメントAI アプリケーション

OpenClaw - セルフホスト型 AI アシスタント

OpenClaw チュートリアル — OpenClaw をインストールし、New API と連携して、セルフホスト型 AI アシスタントをすばやく構築します。オープンソースプロジェクトであり、Lark、Discord、Slack など複数のチャネル統合をサポートしています。

プロジェクト紹介

OpenClaw は、オープンソースかつセルフホスト型の個人向け AI アシスタントプラットフォームです。メッセージアプリを、あなた自身のハードウェア上で動作する AI エージェントに接続します。

開発者および上級ユーザー向けに設計されており、データのコントロールを手放すことなく、自律的な AI アシスタントを利用できます。

OpenClaw(open claw)は完全なオープンソースです。OpenClaw の GitHub リポジトリ でソースコードを参照し、Issue を送信したり、コントリビュートしたりできます。本チュートリアルでは、インストール、設定、および OpenClaw を New API に接続するまでの完全な手順を扱います。

🌟 主な特長

マルチチャネル統合

  • 全プラットフォーム対応:Lark、Discord、Slack、Microsoft Teams など、主要なインスタントメッセージングプラットフォームをサポート
  • 単一 Gateway:1 つの Gateway プロセスで全チャネルを一元管理
  • 音声対応:macOS/iOS/Android での音声インタラクションをサポート
  • Canvas インターフェース:インタラクティブな Canvas インターフェースをレンダリング可能

セルフホストとデータセキュリティ

  • 完全セルフホスト:自分のマシンまたはサーバー上で実行
  • オープンソースで透明:MIT ライセンスで公開され、コードは完全に透明
  • データのローカル保存:コンテキストとスキルはクラウドではなくローカルコンピュータに保存

AI エージェント機能

  • 継続実行:バックグラウンド常駐実行に対応し、永続メモリを保持
  • スケジュールタスク:cron による定期実行をサポート
  • セッション分離:エージェント / ワークスペース / 送信者ごとにセッションを分離
  • マルチエージェントルーティング:複数エージェントの協調動作をサポート
  • ツール呼び出し:ツール呼び出しとコード実行をネイティブサポート

📦 インストール方法

環境要件

  • Node.js 22 以上
  • AI モデルの API Key
npm install -g openclaw@latest

インストール完了後、オンボーディングウィザードを実行します。

openclaw onboard

🚀 設定方法

設定ファイルの場所

OpenClaw の設定ファイルは ~/.openclaw/config.json にあります。オンボーディングウィザードで自動生成することも、手動で編集することもできます。

設定例

以下は、モデルプロバイダーとして New API を使用する完全な設定例です。

{
  "meta": {
    "lastTouchedVersion": "2026.2.1",
    "lastTouchedAt": "2026-02-03T12:17:41.559Z"
  },
  "wizard": {
    "lastRunAt": "2026-02-02T21:17:16.011Z",
    "lastRunVersion": "2026.2.1",
    "lastRunCommand": "onboard",
    "lastRunMode": "local"
  },
  "auth": {
    "cooldowns": {
      "billingBackoffHoursByProvider": {}
    }
  },
  "models": {
    "providers": {
      "newapi": {
        "baseUrl": "https://api.moleapi.com/v1",
        "apiKey": "sk-your-api-key-from-moleapi",
        "auth": "api-key",
        "api": "openai-completions",
        "models": [
          {
            "id": "gemini-3-flash-preview",
            "name": "gemini-3-flash-preview",
            "api": "openai-completions",
            "reasoning": true,
            "input": [
              "text",
              "image"
            ],
            "cost": {
              "input": 0,
              "output": 0,
              "cacheRead": 0,
              "cacheWrite": 0
            },
            "contextWindow": 128000,
            "maxTokens": 64000
          },
          {
            "id": "kimi-k2.5",
            "name": "kimi-k2.5",
            "api": "openai-completions",
            "reasoning": true,
            "input": [
              "text",
              "image"
            ],
            "cost": {
              "input": 0,
              "output": 0,
              "cacheRead": 0,
              "cacheWrite": 0
            },
            "contextWindow": 128000,
            "maxTokens": 64000
          }
        ]
      }
    },
    "bedrockDiscovery": {
      "providerFilter": []
    }
  },
  "agents": {
    "defaults": {
      "model": {
        "primary": "newapi/gemini-3-flash-preview",
        "fallbacks": [
          "newapi/kimi-k2.5"
        ]
      },
      "models": {
        "newapi/gemini-3-flash-preview": {
          "alias": "gemini-3-flash-preview"
        },
        "newapi/kimi-k2.5": {
          "alias": "kimi-k2.5"
        }
      },
      "workspace": "/home/your-username/.openclaw/workspace",
      "maxConcurrent": 4,
      "subagents": {
        "maxConcurrent": 8
      }
    }
  },
  "messages": {
    "ackReactionScope": "group-mentions"
  },
  "commands": {
    "native": "auto",
    "nativeSkills": "auto"
  },
  "channels": {
    "lark": {
      "enabled": true,
      "dmPolicy": "pairing",
      "appId": "your-lark-app-id",
      "appSecret": "your-lark-app-secret",
      "groupPolicy": "allowlist",
      "streamMode": "partial"
    }
  },
  "gateway": {
    "port": 18789,
    "mode": "local",
    "bind": "loopback",
    "auth": {
      "mode": "token",
      "token": "your-secure-token"
    },
    "tailscale": {
      "mode": "off",
      "resetOnExit": false
    }
  },
  "skills": {
    "install": {
      "nodeManager": "npm"
    }
  }
}

主要な設定項目

設定項目説明
models.providers.newapi.baseUrlNew API のデプロイ先アドレス。/v1 を含める必要があります
models.providers.newapi.apiKeyNew API の Token キー
models.providers.newapi.modelsモデル一覧。必要に応じて複数のモデルを追加できます
agents.defaults.model.primaryデフォルトのプライマリモデル。形式は provider/model-id
agents.defaults.model.fallbacksフォールバックモデル一覧。プライマリモデルが利用できない場合に自動で切り替えます
channels.lark.appIdLark アプリの App ID。Lark 開発者プラットフォームから取得します
channels.lark.appSecretLark アプリの App Secret
gateway.portGateway の待ち受けポート
gateway.auth.tokenGateway へアクセスするためのセキュア Token

サービスの起動

設定完了後、OpenClaw を起動します。

openclaw start

起動後、設定したチャネルを通じて AI アシスタントと対話できます。

このガイドはいかがですか?

最終更新日

このページの目次

For Agent

このページは agent 向けに最適化されています。agent にこの URL を渡して読ませてください。

/ja-JP/docs/apps/openclaw
ホームへ戻るゲートウェイ