OpenClaw 完整部署教程(Windows + Ollama)
???? OpenClaw 完整部署教程(Windows + Ollama)
想在Windows上快速搭建一个能调用本地工具、具备自动化能力的AI助手吗?OpenClaw配合Ollama是个绝佳选择。这篇教程将手把手带你走通整个流程,避开那些常见的“坑”。
???? 前置条件
开始之前,请确保你的环境满足以下几点:
- 操作系统:Windows 10 或 11。
- Ollama:已经安装并能正常运行,无论是本地还是远程。
- Node.js:建议安装,某些功能会用到它。
- PowerShell:Windows系统自带,我们主要用它来执行命令。
???? 第一步:安装 OpenClaw
首先,我们需要把OpenClaw这个“大脑”装到系统里。操作很简单:
以管理员身份打开PowerShell,然后运行以下命令进行全局安装:
npm install -g openclaw
安装完成后,不妨验证一下,看看版本号是否正确显示:
openclaw --version
???? 第二步:准备 Ollama
接下来,我们要确保Ollama这个“模型引擎”已经就绪。
1. 启动 Ollama
在PowerShell中运行以下命令,确保Ollama服务正在后台运行:
ollama serve
2. 拉取模型
我们需要一个模型来驱动AI。这里以轻量级的 `qwen2.5:0.5b` 模型为例:
ollama pull qwen2.5:0.5b
3. 验证 Ollama 可用
拉取完成后,检查一下模型是否在列表中:
ollama list
如果一切正常,你应该能看到类似下面的输出:
NAME ID SIZE MODIFIED
qwen2.5:0.5b xxxxxxxx 637MB 2 days ago
第三步:配置 OpenClaw(关键步骤)
这是整个部署的核心环节,配置对了,后面就一帆风顺。
1. 初始化配置
运行初始化向导,它会引导你完成基础设置:
openclaw onboard
跟着提示一步步走,大部分选项保持默认即可。
2. 手动编辑配置文件
向导完成后,为了确保配置精准,我们最好手动核对一下关键配置。用记事本打开配置文件:
notepad C:\Users\你的用户名\.openclaw\openclaw.json
你需要重点关注配置文件中与Ollama连接相关的部分。一个典型的配置示例如下:
{
"meta": { ... },
"wizard": { ... },
"models": {
"providers": {
"ollama": {
"baseUrl": "http://127.0.0.1:11434",
"apiKey": "ollama-local",
"api": "ollama",
"models": []
}
}
},
"agents": {
"defaults": {
"model": "ollama/qwen2.5:0.5b",
"workspace": "C:\\Users\\你的用户名\\.openclaw\\workspace"
}
},
... // 其他配置节
}
???? 关键配置说明
为了让工具调用正常工作,以下几个字段必须配置正确:
| 字段 | 值 | 说明 |
|---|---|---|
baseUrl | http://127.0.0.1:11434 | 切记不要加 /v1,这里要使用Ollama的原生API地址。 |
apiKey | ollama-local | 连接本地Ollama的固定值。 |
api | ollama | 明确指定使用Ollama的原生工具调用接口。 |
model | ollama/qwen2.5:0.5b | 在 agents.defaults 中指定默认使用的模型。 |
⚠️ 重要提示
这里有个容易混淆的点:当你显式配置了模型后,OpenClaw会禁用自动发现功能。这意味着:
- ✅ 正确做法1:如果你已经在
agents.defaults.model里指定了模型(如上例),那么models.providers.ollama.models这个数组可以留空。 - ✅ 正确做法2:如果你希望
openclaw models list命令能列出所有可用模型,就需要在这个数组里手动添加模型定义。
???? 第四步:启动网关
配置保存好后,重启网关服务使配置生效:
openclaw gateway restart
然后,检查一下网关的运行状态:
openclaw gateway status
如果启动成功,你会看到类似这样的输出:
Gateway running on ws://127.0.0.1:18789
✅ 第五步:验证配置
启动后,我们得确认一切是否按预期工作。
1. 检查模型加载
运行以下命令,查看模型是否被正确识别和加载:
openclaw models list
预期的输出应该包含你的模型,并且“Local Auth”显示为“yes”:
Model Input Ctx Local Auth Tags
ollama/qwen2.5:0.5b text 32k yes yes default
2. 运行健康检查
让系统自己做个全面体检:
openclaw doctor
检查结果通常会显示: - ✅ 模型已加载 - ✅ Ollama 连接成功 - ⚠️ 一些关于 Memory 或 API keys 的警告(这些通常与核心的工具调用功能无关,可以暂时忽略)
???? 第六步:测试工具调用功能
激动人心的时刻到了,我们来测试AI是否真的能“动手”干活。
方法 1:使用 TUI 交互模式(推荐)
这是最直观的测试方式。打开终端用户界面:
openclaw tui
在打开的TUI界面中,直接输入一个计算问题:
请帮我计算 12345 + 67890 等于多少?
✅ 成功标志:AI直接返回计算结果 80235。
❌ 失败标志:如果输出的是原始的JSON代码(如 {"tool_call": ...}),说明工具调用没生效。
方法 2:使用 agent 命令
你也可以直接在命令行中测试:
openclaw agent --message "请计算 25 * 37 的结果"
方法 3:测试计算器工具
试试更复杂的计算,比如保留小数:
openclaw agent --message "请帮我计算 100 / 7,保留两位小数"
方法 4:使用Web UI交互
如果你更喜欢图形界面,可以启动仪表盘:
openclaw dashboard
???? 常见问题排查
如果测试不顺利,别急,以下是几个常见问题及解决方法。
问题 1:模型未加载
# 错误提示:No models found
解决:检查配置文件中的 baseUrl 是否正确,并确认Ollama服务(ollama serve)正在运行。
问题 2:工具调用输出 JSON 而非结果
# 错误输出:{"tool_calls": [{"name": "calculator", ...}]}
原因:这通常是因为错误地使用了OpenAI兼容模式(即在 baseUrl 后加了 /v1 后缀)。
解决:确保配置文件中 baseUrl 是 http://127.0.0.1:11434,而不是 http://127.0.0.1:11434/v1。
问题 3:连接被拒绝
# 错误:ECONNREFUSED
解决:
1. 检查Ollama是否真的在运行:ollama list
2. 尝试重启Ollama服务:ollama serve
问题 4:Dashboard 无法访问
原因:网关可能未完全启动,或者默认端口(18789)被其他程序占用。
解决:
1. 强制重启网关:openclaw gateway --force
2. 或者,更换一个端口:
openclaw config set gateway.port 18790
openclaw gateway restart
???? 完整测试流程
为了确保万无一失,你可以按顺序执行下面这一套“组合拳”命令,完成端到端的验证:
# 1. 启动 Ollama
ollama serve
# 2. 重启 OpenClaw 网关
openclaw gateway restart
# 3. 验证模型
openclaw models list
# 4. 运行健康检查
openclaw doctor
# 5. 测试工具调用
openclaw tui
# 在 TUI 中输入:计算 12345 + 67890
# 6. 退出 TUI
# 按 Ctrl+C 或输入 /quit
???? 预期结果
如果每一步都配置正确,你应该会看到如下结果:
| 步骤 | 预期输出 |
|---|---|
ollama list | 显示 qwen2.5:0.5b 模型。 |
openclaw models list | 显示 ollama/qwen2.5:0.5b,且 Local Auth 为 yes。 |
openclaw doctor | 显示模型已加载,没有连接错误。 |
| 工具调用测试 | AI直接返回计算结果,而不是JSON代码。 |
???? 恭喜!
如果所有测试都通过了,那么恭喜你,你已经成功完成了以下目标:
- ✅ 成功部署 OpenClaw 智能体框架。
- ✅ 正确配置了 Ollama 原生 API(避开了OpenAI兼容模式的坑)。
- ✅ 启用了强大的工具调用功能。
- ✅ 可以正常使用计算器等工具进行自动化任务。
现在,你可以尽情探索OpenClaw的更多自动化功能了!????
???? 进阶配置
基础功能搞定后,你可以尝试以下进阶设置。
添加更多模型
如果你想使用多个模型,可以在配置文件的 models 数组中手动添加:
"models": {
"providers": {
"ollama": {
"baseUrl": "http://127.0.0.1:11434",
"apiKey": "ollama-local",
"api": "ollama",
"models": [
{"name": "qwen2.5:0.5b"},
{"name": "llama3:8b"},
{"name": "mistral:7b"}
]
}
}
}
连接远程 Ollama
如果你的Ollama运行在局域网的另一台机器上,只需修改 baseUrl:
"baseUrl": "http://192.168.1.100:11434"
启用详细日志
遇到疑难杂症时,开启Debug日志能帮你看清每一步发生了什么:
openclaw --log-level debug
还是遇到了问题? 别担心,按这个清单再检查一遍:
- Ollama 是否在运行? 执行:
ollama list - 配置文件路径对吗? 核对:
C:\Users\你的用户名\.openclaw\openclaw.json - 网关启动了吗? 检查:
openclaw gateway status - 查看详细日志: 运行:
openclaw logs
祝你使用愉快!????