如何使用Ollama集成OpenClaw
在 Ollama 中安装并集成 OpenClaw:零成本本地部署指南
想在本地免费跑大模型,同时拥有一个清爽好用的对话界面?把 OpenClaw 和 Ollama 结合起来,是个非常高效的选择。核心流程其实很清晰:先部署 OpenClaw 这个前端应用,再通过 Ollama 拉取并管理本地模型,最后将两者“打通”。下面,咱们就一步步来操作。
一、安装 OpenClaw(这是第一步,也是必做项)
1. 系统要求
动手之前,先核对一下你的设备环境:
Windows用户:最省心的方式是使用 WSL2,当然原生 Windows 10 及以上版本也可以。
macOS用户:需要 macOS 10.15 或更高版本。
Linux用户:主流的发行版如 Ubuntu 等基本都支持。
另外,无论哪个系统,都需要提前安装好 Node.js(版本 ≥ 22)。
2. 一键安装命令
最快捷的方式是使用官方提供的一键脚本:
对于 macOS 或 Linux 系统,打开终端,执行:
curl -fsSL https://openclaw.ai/install.sh | bash
对于 Windows 系统(在 WSL2 或 PowerShell 中),可以运行:
iwr -useb https://openclaw.ai/install.ps1 | iex
当然,如果你习惯用 npm,也可以选择全局安装:
npm install -g openclaw@latest
3. 验证安装
安装完成后,怎么确认是否成功呢?很简单,在命令行里输入:
openclaw --version
# 如果能正常输出版本号,那就恭喜你,第一步搞定!
二、安装 Ollama(本地模型引擎)
OpenClaw 是个出色的“外壳”,但它本身不提供模型能力。这时就需要 Ollama 登场了,它负责在本地拉取、管理和运行开源大模型。
1. 安装 Ollama
Ollama 的安装同样提供了一键脚本:
macOS / Linux 用户在终端运行:
curl -fsSL https://ollama.com/install.sh | sh
Windows 用户更简单,直接去官网下载安装包,双击运行即可。
2. 验证 Ollama
安装后,别忘了验证一下:
ollama --version
3. 拉取适配模型(推荐)
Ollama 安装好之后,仓库里还是空的,需要你手动拉取想要的模型。这里可以根据自己的硬件条件来选:
# 轻量通用选择(7B参数,适合大多数普通电脑)
ollama pull qwen2.5:7b
# 如果硬件给力(比如显存 ≥ 8G),可以尝试更大模型
ollama pull qwen3:14b
三、Ollama 对接 OpenClaw(两种方式,任选其一)
这是最关键的一步,让前端界面和后台模型引擎连接起来。
方式一:Ollama 一键启动(推荐给怕麻烦的朋友)
Ollama 贴心地提供了一个集成命令:
ollama launch openclaw
运行后,跟着向导提示操作,选择 Ollama 作为模型提供商,它就会自动帮你完成配置对接,非常省心。
方式二:手动修改配置文件(适合喜欢掌控一切的极客)
如果你更倾向于手动配置,可以按以下步骤操作:
首先,找到配置文件
Windows 系统通常在:C:\Users\你的用户名\.openclaw\openclaw.json
macOS / Linux 系统则在:~/.openclaw/openclaw.json
然后,添加 Ollama 配置
在配置文件的合适位置(通常是 models 字段下),添加如下配置段:
{
"models": {
"ollama": {
"baseUrl": "http://localhost:11434",
"models": [{
"id": "qwen2.5:7b",
"name": "本地通义千问7B",
"contextWindow": 8192,
"maxTokens": 4096
}]
}
}
}
最后,重启 OpenClaw 服务
配置修改后,需要重启服务使其生效:
openclaw restart
四、启动与使用
完成所有配置后,就可以启动体验了。
# 启动 OpenClaw 服务
openclaw start
# 访问 Web 面板
# 用浏览器打开:http://localhost:3000
在浏览器中打开管理界面,登录后,记得在模型选择的下拉菜单中,切换成你刚刚配置好的 Ollama 本地模型(比如“本地通义千问7B”)。至此,一个完全免费、可离线运行的大模型对话环境就搭建完成了。
常见问题
遇到问题先别急,以下几个点是高频踩坑区:
端口占用:如果 3000 端口被占用,可以修改 openclaw.json 配置文件中的 port 字段,换成 3001 等其他未被占用的端口。
模型拉取慢:从海外拉取模型文件速度可能不理想,可以考虑更换国内镜像源,或者寻找手动下载模型文件的路径。
运行卡顿:模型运行吃硬件。建议内存不小于 16G,显存不小于 4G。如果硬件有限,务必优先选择 qwen2.5:7b 这类轻量级模型,体验会更流畅。
希望这份指南能帮你顺利搭建起专属的本地 AI 助手。