Mac 本地部署 Ollama 大模型接入 OpenClaw 完整指南
Mac 本地部署 Ollama 大模型接入 OpenClaw 完整指南
想在本地拥有一个完全属于自己的AI助手吗?它响应迅速、隐私安全,而且一切尽在你的掌控之中。
???? 前提条件
动手之前,有几件事得先准备好。别担心,都是基础操作:
首先,你得安装好 Ollama。直接去它的官网 ollama.com 下载安装包,按提示完成安装就行。
其次,确保你的 OpenClaw 也已经安装妥当,并且能够正常运行。这两样是咱们所有操作的地基,缺一不可。
???? 部署步骤
步骤一:下载并部署本地大模型
为了追求效率,我们以 qwen3:latest 模型为例。这个模型能力均衡,大小约在 5.2GB,是个不错的起点。打开终端,输入以下命令开始拉取模型:
# 下载模型
ollama pull qwen3:latest
下载过程中,终端会显示详细的进度。看到类似下面的输出,就说明一切正在顺利进行:
pulling manifest
pulling a3de86cd1c13: 100% ▕█████████████████████████████████████████████████████████████▏ 5.2 GB
pulling ae370d884f10: 100% ▕█████████████████████████████████████████████████████████████▏ 1.7 KB
pulling d18a5cc71b84: 100% ▕█████████████████████████████████████████████████████████████▏ 11 KB
pulling cff3f395ef37: 100% ▕█████████████████████████████████████████████████████████████▏ 120 B
pulling 05a61d37b084: 100% ▕█████████████████████████████████████████████████████████████▏ 487 B
verifying sha256 digest
writing manifest
success
模型下载好后,你可以先简单测试一下,顺便看看它是否已成功加入你的模型库:
# 启动模型(可选,用于测试)
ollama run qwen3:latest
# 查看当前已下载的模型
ollama list
执行列表命令后,你应该能看到类似这样的信息,确认 qwen3 已就位:
NAME ID SIZE MODIFIED
qwen3:latest 500a1f067a9f 5.2 GB About an hour ago
步骤二:通过 Ollama 命令配置 OpenClaw
接下来是关键一步,将我们刚部署好的模型与 OpenClaw 连接起来。在终端中输入:
ollama launch openclaw
命令执行后,会弹出一个模型选择界面。界面上通常会列出几个推荐模型,这时你需要找到并选中我们刚刚下载的 qwen3 模型。
Select models for OpenClaw:
Type to filter...
Recommended
glm-4.7-flash Reasoning and code generation locally, ~25GB, (not downloaded)
qwen3:8b Efficient all-purpose assistant, ~11GB, (not downloaded)
minimax-m2.5:cloud Fast, efficient coding and real-world productivity, (not downloaded)
glm-5:cloud Reasoning and code generation, (not downloaded)
kimi-k2.5:cloud Multimodal reasoning with subagents, (not downloaded)
More ▸
❯ qwen3 ← 选择此项
步骤三:确认配置修改
选择模型后,Ollama 会非常贴心地提示你,它即将修改 OpenClaw 的配置文件,并且已经准备好了备份。这个过程是自动化的核心,直接按回车确认(选择“Yes”)即可。
This will modify your OpenClaw configuration:
/Users/jianglei/.openclaw/openclaw.json
Backups will be saved to:
/var/folders/gh/d5g8xsmn67l386hsbfdj0h980000gn/T/ollama-backups/
Proceed?
Yes ← 直接回车确认
No
步骤四:等待配置完成
确认之后,就交给 Ollama 自动处理吧。它会一气呵成地完成以下几件事:
修改 OpenClaw 的配置文件指向本地模型;自动重启 OpenClaw GateWay 服务;最后,启动文本用户界面(TUI)。
当你看到 OpenClaw 重启完成的提示时,恭喜你,本地大模型接入成功!????
✅ 验证部署
配置完成后,最好花一分钟验证一下,确保一切运转如常。可以从这几个方面入手:
检查 OpenClaw 状态
在终端运行 openclaw status,查看服务是否健康。
openclaw status
在 OpenClaw 中发起对话
直接向你的 AI 助手提问,感受一下它的响应。关键是要确认回答是来自你本地的 qwen3 模型,而不是云端服务。
查看 Ollama 运行状态
运行 ollama ps,看看 qwen3 模型进程是否在后台正常运行。
ollama ps
???? 常见问题
Q:下载速度太慢怎么办?
A:模型文件体积不小,下载速度受网络影响很大。如果遇到瓶颈,可以尝试寻找可用的国内镜像源,或者换个网络环境、在空闲时段再试。
Q:模型占用空间太大?
A:5.2GB 的 latest 版本如果觉得有压力,完全可以退而求其次。例如,qwen3:8b 版本约 11GB,qwen3:1.8b 版本更是只有约 2GB,它们在很多日常任务上表现也相当不错。
Q:配置后 OpenClaw 无法启动?
A:别着急。首先,检查一下 Ollama 为你自动创建的配置文件备份。如果问题依旧,重新运行一次 ollama launch openclaw 命令,通常能自动修复配置问题。
???? 小结
简单回顾一下整个流程,你会发现其实并不复杂:
| 步骤 | 操作 | 预计耗时 |
|---|---|---|
| 1 | 下载 qwen3 模型 | 10-30 分钟(取决于网络) |
| 2 | 运行 ollama launch openclaw | 1 分钟 |
| 3 | 确认配置 | 30 秒 |
| 4 | 等待重启完成 | 1-2 分钟 |
总耗时:约 15-35 分钟