多台 OpenClaw 互联

2026-05-01阅读 0热度 0
前端 人工智能 架构

多台 OpenClaw 互联:构建你的分布式智能体集群

想让多台机器协同工作,发挥出“1+1>2”的效能吗?OpenClaw 的集群互联功能,正是为此而生。其核心架构非常清晰:一个 Gateway(主节点/中心) 加上 N 个 Node(工作节点),各司其职,共同构成一个高效的分布式系统。

多台 OpenClaw 互联

  • Gateway:扮演“指挥中心”的角色,负责消息路由、会话管理、Web UI 界面、任务调度,同时也是飞书、微信等外部插件的统一入口。
  • Node:作为“一线执行者”,负责调用具体的工具、运行浏览器、执行 GPU 计算、处理文件操作等重负载任务。
  • 通信:节点之间通过 WebSocket 长连接进行通信。这种方案不仅安全,而且对需要内网穿透的场景非常友好,还能实现自动重连,保证了集群的稳定性。

一、最简互联方案(局域网 / 内网)

如果你的机器都在同一个局域网内,那么恭喜你,这是最简单的部署场景。跟着下面几步走,集群马上就能跑起来。

1. 主节点(Gateway)配置与启动

首先,你需要选定一台性能稳定、最好能 24 小时开机的服务器作为主节点。

在所有机器上,都需要先完成 OpenClaw 的基础安装:

# 1. 安装 OpenClaw(所有机器都要装)
curl -fsSL https://ollama.ai/install.sh | sh
npm install -g openclaw
openclaw init

接着,在主节点上,编辑配置文件 ~/.openclaw/openclaw.json,关键配置如下:

{
  "gateway": {
    "port": 18789,
    "bind": "0.0.0.0", // 设置为 0.0.0.0 才能让局域网内其他机器访问
    "remote": {
      "enabled": true,
      "token": "你的强密码令牌" // 所有节点必须使用同一个令牌
    }
  },
  "channels": {
    "feishu": {
      "enabled": true,
      "connectionMode": "websocket",
      "appId": "cli_xxxx",
      "appSecret": "xxxx"
    }
  }
}

保存配置后,启动网关服务:

# 启动网关(集群模式)
openclaw gateway start --cluster
# 查看状态,确认服务已正常启动
openclaw gateway status

2. 其他机器(Node)加入集群

现在,轮到其他电脑或服务器作为工作节点加入了。在每一台需要加入的机器上执行:

# 同样确保已安装好 openclaw
openclaw node join \
  --gateway ws://主节点IP:18789 \
  --token 你的强密码令牌
  • 命令执行成功后,主节点的日志或状态界面就会看到新节点上线的提示。
  • 随时可以在主节点查看所有已连接的节点:
    openclaw node list

3. 验证互联与消息互通

  • 此时,从飞书发来的消息会先到达 Gateway,随后由 Gateway 自动分发给当前最空闲的 Node 去执行。
  • 你可以打开主节点的 Web UI 界面,直观地看到所有节点的实时状态、负载情况和执行日志。

二、跨公网 / 异地互联(推荐:Tailscale)

如果机器不在同一个内网,比如分布在不同的办公室或家里,该怎么办?别担心,借助 Tailscale 这样的虚拟内网工具,可以轻松实现安全、简单的跨公网互联。

  1. 在所有需要组网的机器上安装 Tailscale 并登录同一个账户。
  2. 将主节点配置文件中的 gateway.bind 地址,改为本机的 Tailscale IP 地址,或者直接设置为 "tailnet"
  3. 其他节点在加入集群时,使用主节点的 Tailscale IP 进行连接:
    openclaw node join \
      --gateway ws://主节点TailscaleIP:18789 \
      --token xxx

这种方案的优势非常明显:你不再需要申请公网 IP 或进行复杂的端口映射,所有流量自动加密,并且能轻松实现跨地域的机器互联。


三、飞书插件在集群中的工作方式

很多朋友关心飞书消息在集群中是如何流转的。简单来说,整个过程可以概括为以下四步:

  1. 飞书服务器通过 WebSocket 长连接,只与 Gateway 主节点通信。
  2. Gateway 收到用户消息后,根据调度策略,将其路由到集群中负载最轻、最空闲的 Node 去执行。
  3. Node 调用 Ollama 进行推理、启动浏览器、或执行其他工具任务,完成后将结果回传给 Gateway。
  4. 最终,由 Gateway 通过飞书插件,将统一的回复发送给用户。

这样做的好处一目了然:

  • 连接稳定:与飞书的长连接只由 Gateway 这一台机器维持,避免了多机重复连接可能带来的混乱和不稳定。
  • 负载均衡:计算、工具调用、浏览器操作这些“重活累活”被分散到多个 Node 上执行,主节点 Gateway 得以保持轻量,响应迅速。
  • 高可用性:即使某个 Node 意外设掉,任务也会被自动重新调度到其他健康的节点上,保障了服务的连续性。

四、常见问题与排错

  1. 节点连不上主节点

    • 检查主节点的防火墙,确保 18789 端口(TCP)已开放。
    • 确认主节点配置中 bind 项为 0.0.0.0
    • 核对所有节点加入时使用的 token 是否与主节点配置中的完全一致。
  2. 飞书消息只在主节点处理,不分发给其他节点

    • 首先检查 openclaw.json 配置文件,确保远程集群功能已开启:
      "gateway": {
        "remote": {
          "enabled": true
        }
      }
    • 修改配置后,重启 Gateway 服务使其生效:openclaw gateway restart
  3. 如何查看集群日志

    # 在主节点查看网关及集群日志
    openclaw logs --follow
    
    # 在任意工作节点查看该节点的执行日志
    openclaw node logs

五、推荐架构(你当前场景)

结合你提到的使用场景,一个理想的架构拓扑可以这样设计:

[飞书]
    ↑↓ (WebSocket)
[Gateway 主节点]
    ↑↓ (WebSocket 集群)
[你的电脑 Node]  ←→  [GPU 服务器 Node]  ←→  [另一台服务器 Node]
  • Gateway:专职负责与飞书保持稳定长连接、提供 Web UI 管理界面、进行智能任务调度。
  • Node:作为计算资源池,你的个人电脑、拥有强大 GPU 的服务器、或者其他备用服务器都可以加入,共同承担 Ollama 模型推理、浏览器自动化、文件处理等重型任务。
  • 这样一来,你可以根据需求随时增加或减少 Node 的数量,而飞书连接这个“生命线”始终稳定地握在 Gateway 手中,实现了弹性与稳定的完美平衡。
免责声明

本网站新闻资讯均来自公开渠道,力求准确但不保证绝对无误,内容观点仅代表作者本人,与本站无关。若涉及侵权,请联系我们处理。本站保留对声明的修改权,最终解释权归本站所有。

相关阅读

更多
欢迎回来 登录或注册后,可保存提示词和历史记录
登录后可同步收藏、历史记录和常用模板
注册即表示同意服务条款与隐私政策