Mac 本地部署 Ollama 大模型接入 OpenClaw 完整指南

2026-05-06阅读 0热度 0
macos AI模型 OpenClaw Ollama

Mac 本地部署 Ollama 大模型接入 OpenClaw 完整指南

想在本地拥有一个完全属于自己的AI助手吗?它响应迅速、隐私安全,而且一切尽在你的掌控之中。


???? 前提条件

动手之前,有几件事得先准备好。别担心,都是基础操作:

首先,你得安装好 Ollama。直接去它的官网 ollama.com 下载安装包,按提示完成安装就行。

其次,确保你的 OpenClaw 也已经安装妥当,并且能够正常运行。这两样是咱们所有操作的地基,缺一不可。


???? 部署步骤

步骤一:下载并部署本地大模型

为了追求效率,我们以 qwen3:latest 模型为例。这个模型能力均衡,大小约在 5.2GB,是个不错的起点。打开终端,输入以下命令开始拉取模型:

# 下载模型
ollama pull qwen3:latest

下载过程中,终端会显示详细的进度。看到类似下面的输出,就说明一切正在顺利进行:

pulling manifest
pulling a3de86cd1c13: 100% ▕█████████████████████████████████████████████████████████████▏ 5.2 GB
pulling ae370d884f10: 100% ▕█████████████████████████████████████████████████████████████▏ 1.7 KB
pulling d18a5cc71b84: 100% ▕█████████████████████████████████████████████████████████████▏ 11 KB
pulling cff3f395ef37: 100% ▕█████████████████████████████████████████████████████████████▏ 120 B
pulling 05a61d37b084: 100% ▕█████████████████████████████████████████████████████████████▏ 487 B
verifying sha256 digest
writing manifest
success

模型下载好后,你可以先简单测试一下,顺便看看它是否已成功加入你的模型库:

# 启动模型(可选,用于测试)
ollama run qwen3:latest

# 查看当前已下载的模型
ollama list

执行列表命令后,你应该能看到类似这样的信息,确认 qwen3 已就位:

NAME             ID              SIZE      MODIFIED
qwen3:latest     500a1f067a9f    5.2 GB    About an hour ago

步骤二:通过 Ollama 命令配置 OpenClaw

接下来是关键一步,将我们刚部署好的模型与 OpenClaw 连接起来。在终端中输入:

ollama launch openclaw

命令执行后,会弹出一个模型选择界面。界面上通常会列出几个推荐模型,这时你需要找到并选中我们刚刚下载的 qwen3 模型。

Select models for OpenClaw:
Type to filter...
Recommended
  glm-4.7-flash       Reasoning and code generation locally, ~25GB, (not downloaded)
  qwen3:8b            Efficient all-purpose assistant, ~11GB, (not downloaded)
  minimax-m2.5:cloud  Fast, efficient coding and real-world productivity, (not downloaded)
  glm-5:cloud         Reasoning and code generation, (not downloaded)
  kimi-k2.5:cloud     Multimodal reasoning with subagents, (not downloaded)
  More ▸
❯ qwen3                ← 选择此项

步骤三:确认配置修改

选择模型后,Ollama 会非常贴心地提示你,它即将修改 OpenClaw 的配置文件,并且已经准备好了备份。这个过程是自动化的核心,直接按回车确认(选择“Yes”)即可。

This will modify your OpenClaw configuration:
  /Users/jianglei/.openclaw/openclaw.json
Backups will be saved to:
  /var/folders/gh/d5g8xsmn67l386hsbfdj0h980000gn/T/ollama-backups/
Proceed?
  Yes    ← 直接回车确认
  No

步骤四:等待配置完成

确认之后,就交给 Ollama 自动处理吧。它会一气呵成地完成以下几件事:

修改 OpenClaw 的配置文件指向本地模型;自动重启 OpenClaw GateWay 服务;最后,启动文本用户界面(TUI)。

当你看到 OpenClaw 重启完成的提示时,恭喜你,本地大模型接入成功!????


✅ 验证部署

配置完成后,最好花一分钟验证一下,确保一切运转如常。可以从这几个方面入手:

检查 OpenClaw 状态
在终端运行 openclaw status,查看服务是否健康。

openclaw status

在 OpenClaw 中发起对话
直接向你的 AI 助手提问,感受一下它的响应。关键是要确认回答是来自你本地的 qwen3 模型,而不是云端服务。

查看 Ollama 运行状态
运行 ollama ps,看看 qwen3 模型进程是否在后台正常运行。

ollama ps

???? 常见问题

Q:下载速度太慢怎么办?

A:模型文件体积不小,下载速度受网络影响很大。如果遇到瓶颈,可以尝试寻找可用的国内镜像源,或者换个网络环境、在空闲时段再试。

Q:模型占用空间太大?

A:5.2GB 的 latest 版本如果觉得有压力,完全可以退而求其次。例如,qwen3:8b 版本约 11GB,qwen3:1.8b 版本更是只有约 2GB,它们在很多日常任务上表现也相当不错。

Q:配置后 OpenClaw 无法启动?

A:别着急。首先,检查一下 Ollama 为你自动创建的配置文件备份。如果问题依旧,重新运行一次 ollama launch openclaw 命令,通常能自动修复配置问题。


???? 小结

简单回顾一下整个流程,你会发现其实并不复杂:

步骤操作预计耗时
1下载 qwen3 模型10-30 分钟(取决于网络)
2运行 ollama launch openclaw1 分钟
3确认配置30 秒
4等待重启完成1-2 分钟

总耗时:约 15-35 分钟


???? 参考链接


免责声明

本网站新闻资讯均来自公开渠道,力求准确但不保证绝对无误,内容观点仅代表作者本人,与本站无关。若涉及侵权,请联系我们处理。本站保留对声明的修改权,最终解释权归本站所有。

相关阅读

更多
欢迎回来 登录或注册后,可保存提示词和历史记录
登录后可同步收藏、历史记录和常用模板
注册即表示同意服务条款与隐私政策