MacOS 上部署 OpenClaw 的全界面操作方案

2026-05-06阅读 0热度 0
macos docker 容器

MacOS 上部署 OpenClaw 的全界面操作方案

想在 Mac 上快速玩转 OpenClaw 和本地大模型?这篇指南提供了两种完全通过图形界面操作的方法,让你告别复杂的命令行。手把手带你走通。

本次演示环境:MacOS + Docker 桌面版 + Ollama.app

为了最大程度简化流程,我们选择使用轻量级的本地模型 qwen3:4b 作为示例。


方案一:用 1Panel 部署 OpenClaw

这个方案的核心思路是“套娃式”部署:先在 Docker 里安装一个可视化的运维面板 1Panel,再通过这个面板去安装和管理 OpenClaw。操作非常直观。

1) Docker Desktop 设置文件共享

首先,得让 Docker 能访问我们 Mac 上的特定目录。打开 Docker Desktop,进入:
SettingsResourcesFile sharing
然后,点击添加路径,填入:/opt。这一步是关键,为后续的目录挂载铺平道路。

2) 创建 1Panel 容器

现在回到 Docker Desktop 的容器列表,点击“Add Container”来创建新容器。

  • Name: 输入 1panel
  • Ports: 添加端口映射,将容器的80端口映射到主机的 10086 端口(或其他未被占用的端口)。
  • Volumes (卷/挂载): 这里需要添加两条:
    1. /var/run/docker.sock:/var/run/docker.sock (让1Panel能控制宿主机Docker)
    2. /opt:/opt (共享我们刚才设置的目录)

镜像使用默认的 1panel/1panel:latest 即可,创建并运行容器。

3) 获取 1Panel 登录账号

容器运行后,点击其日志或终端。在里面执行命令:
1pctl user-info
命令执行后,会显示默认的用户名和密码。记录下来。
接着,打开浏览器,访问:http://127.0.0.1:10086,用刚才的账号登录,你就进入了功能强大的1Panel管理界面。

4) 创建模型账号(Model Account)

在1Panel的“应用商店”或相关菜单中找到并安装 OpenClaw。安装过程中或安装后,通常需要在 OpenClaw 的配置里添加模型供应商。
找到模型账号配置的地方(可能叫 Model Providers 或类似),新建一个:

  • 名称: ollama
  • 模型供应商: 选择 Ollama
  • API Key: 这里可以随意填写一个字符串(因为本地Ollama通常无需鉴权)。
  • Base URL: 这是关键!填入 http://host.docker.internal:11434host.docker.internal 这个特殊地址能让容器访问到主机上的服务。

5) 创建智能体(Agent)

接下来在 OpenClaw 内创建一个AI智能体。

  • 名称: 例如 openclaw
  • 模型供应商: 选择我们上一步创建的 ollama
  • 模型选择: 可能需要勾选“手动输入模型”,然后在模型字段填入 ollama/qwen3:4b
  • 模型账号: 选择对应名称(即 ollama

创建成功后,系统会生成一个 Token,务必保存好,下一步马上要用。

6) OpenClaw 控制台配置与验证

OpenClaw 通常会提供独立的控制台界面,访问地址一般是 http://127.0.0.1:18789(端口可能根据安装情况变化)。
在控制台页面,按照以下路径进行配置(就像在桌面软件里点菜单一样):

  1. 进入 Control → Overview → Gateway Access → Gateway Token,填入上一步保存的 Token。
  2. 进入 Config → Models → Providers,找到 ollama,确保其 Api 配置项选择了正确的账号(即 ollama),然后保存。
  3. 最后,进入 Chat → Chat 页面,尝试发起一个对话。如果能正常收到回复,恭喜你,整个链路就从界面点击到模型推理,全部打通了。

方案二:使用 Docker 直接部署 OpenClaw

如果你更喜欢“一步到位”,不想通过1Panel中转,这个方案更直接。我们直接拉取 OpenClaw 的官方镜像来运行。

1) 创建容器

在 Docker Desktop 中创建新容器:

  • 镜像: fourplayer/openclaw (或指定的最新版本)
  • Ports: 添加端口映射,通常需要映射这三个端口:18788, 18789, 22(具体端口请以镜像文档为准)。

直接创建并运行。

2) 配置(用“路径 → 字段: 值”表示)

容器运行后,访问其Web界面(通常是 http://127.0.0.1:18789),开始进行关键配置。

A. 默认智能体配置

找到路径:Config → Agents → Defaults
这里设置智能体的通用参数:

  • Remote Embedding API Key: 可以填写 API_KEY 等占位符(如果无需远程嵌入服务)。
  • Primary Model: 填入 ollama/qwen3:4b,将其设为主要推理模型。
B. Provider 配置(添加 ollama)

这是连接本地模型的核心。进入:
Config → Models → Providers → Add Entry
然后填写新供应商的信息:

  • Name: ollama
  • Api: 选择或填写为 ollama
  • Api Key: 同样可填 API_KEY 作为占位。
  • Base Url: 再次强调,填入 http://host.docker.internal:11434
C. 模型列表(在 Provider 下添加模型)

添加了供应商,还需要把具体的模型挂载上去。进入:
Config → Models → Providers → ollama → Models → Add
添加一个新模型,配置如下:

  • Api: ollama(关联到上一步的供应商)
  • Id: qwen3:4b
  • Name: qwen3:4b(显示名称)
  • Reasoning: 设置为 true,启用推理能力。

保存所有配置后,返回聊天界面测试,同样应该能看到模型开始工作了。


在这里插入图片描述

以上就是两种在 MacOS 上纯界面操作部署 OpenClaw 并连接本地 Ollama 模型的详细路径。哪种方案更好?取决于你的习惯:方案一通过1Panel,管理多个服务更方便;方案二更直接,架构更简洁。无论选择哪种,关键在于理解 host.docker.internal:11434 这个桥梁地址,它让容器内的应用成功“回头”找到了主机上运行的 Ollama 服务。动手试试吧,整个过程就像搭积木一样清晰。

免责声明

本网站新闻资讯均来自公开渠道,力求准确但不保证绝对无误,内容观点仅代表作者本人,与本站无关。若涉及侵权,请联系我们处理。本站保留对声明的修改权,最终解释权归本站所有。

相关阅读

更多
欢迎回来 登录或注册后,可保存提示词和历史记录
登录后可同步收藏、历史记录和常用模板
注册即表示同意服务条款与隐私政策