Windows 本地部署OpenClaw 指南
Windows 本地部署 OpenClaw 指南(基于 Ollama)
想在Windows上搭建一个属于自己的AI助手吗?这篇指南将带你一步步完成基于Ollama框架的OpenClaw服务本地部署。OpenClaw本质上是一个桥接工具,它让本地大模型能够通过更友好的WebSocket接口提供服务。
???? 准备工作
1. 安装 Ollama并下载模型
一切的基础是Ollama,它负责在后台真正地运行和管理大模型。
安装步骤:
首先,去Ollama官网找到Windows版的安装包(一个.msi文件)。下载后直接双击,跟着向导完成安装即可,过程非常简单。
安装好后,打开你的命令提示符(CMD)或者PowerShell,输入下面这行命令验证一下:
ollama --version
如果终端顺利显示了版本号,恭喜你,第一步已经搞定了。
2. Ollama 模型下载
2.1. 启动 Ollama 服务:
在部署之前,需要先把Ollama的后台服务跑起来。打开一个新的命令行窗口,输入:
ollama serve
2.2. 下载模型(以 qwen2.5:7b 为例):
服务启动后,在另一个命令行窗口里,执行拉取模型的命令。咱们先用通义千问的7B版本做个示范:
ollama pull qwen2.5:7b
接下来就是等待了,下载速度取决于你的网络环境。
2.3. 检查模型列表:
下载完成后,怎么确认模型已经在本地了呢?输入这个命令看看:
ollama list
如果一切正常,你应该能看到类似下图的输出,其中列出了你刚下载的模型。
2.4. 创建Modelfile
这里有个关键点需要注意:OpenClaw默认对模型的上下文长度(context window)有较高要求(至少16000 tokens),而很多基础模型可能只支持4096。所以,我们需要为模型“扩容”。
方法是创建一个自定义的Modelfile:
# 切换到用户目录
cd C:\Users\work
# 创建 Modelfile
FROM qwen2.5:7b
PARAMETER num_ctx 32768
# 创建新模型(例如 qwen2.5:7b-32k):
ollama create qwen2.5:7b -f Modelfile
创建完成后,最好验证一下新模型的参数是否已生效:
ollama show qwen2
检查输出中关于上下文长度的参数,确认它已经变成了32768。
???? 安装 OpenClaw
一键安装
OpenClaw的安装过程非常便捷,官方提供了一键安装脚本。直接在PowerShell中运行下面这行命令即可:
# 在 PowerShell 中运行即可。
curl -fsSL https://openclaw.ai/install.cmd -o install.cmd && install.cmd --tag beta && del install.cmd
3. 验证安装
安装脚本跑完后,同样用版本查询命令来验证一下:
openclaw --version
如果看到版本信息,说明OpenClaw已经成功入驻你的系统。
???? 配置 OpenClaw
4. 运行配置向导
安装只是第一步,接下来需要让OpenClaw知道怎么连接我们本地的Ollama服务。使用内置的配置向导能省去很多手动编辑文件的麻烦:
openclaw onboard
4.1 按提示选择配置项
向导是交互式的,你只需要根据提示做出选择。下面这几个关键配置项需要特别注意:
| 步骤 | 操作 |
|---|---|
| Model/auth provider | 选择 Custom Provider(列表最后一项) |
| API Base URL | 输入 http://127.0.0.1:11434/v1(默认) |
| API Key | 选择 OpenAI-compatible |
| Endpoint compatibility | 输入你创建的模型名(如 qwen2.5:7b) |
| Model ID | 选择 Custom Provider(列表最后一项) |
后续的选项,比如遇到设置团队、密钥等,可以先选择 Skip for now 或 No 跳过,直达完成。
4.3 验证配置是否成功
配置完成后,向导通常会显示Web UI的访问地址(例如 http://127.0.0.1:18789)和一个访问令牌。
此时,打开浏览器访问这个地址,尝试输入任意消息,如果AI能够正常回复,那就说明基础连接配置成功了。
???? 启动 OpenClaw 服务
5 修改配置文件
为了让OpenClaw充分利用我们之前为模型扩展的上下文长度,还需要手动调整两个配置文件:
1. C:\Users\WIN\.openclaw\openclaw.json
修改 models.providers.custom-127-0-0-1-11434.models 数组中 id 为你的模型名的对象,将 contextWindow 和 maxTokens 的值从 4096 改为 32768。
2. C:\Users\WIN\.openclaw/agents\main\agent\models.json
同上,修改 maxTokens =32768
具体修改位置可以参考下图:
C:\Users\WIN.openclaw\openclaw.json
C:\Users\WIN.openclaw/agents\main\agent\models.json
保存这两个文件后,就可以重启OpenClaw服务了:
openclaw tui
???? 常见问题排查
1. WebSocket 连接失败
错误信息:gateway closed (1006 abnormal closure)
解决方法: 首先,确认Ollama的serve服务是否在后台正常运行,并且模型已成功下载。其次,检查Windows防火墙是否意外拦截了本地地址127.0.0.1和端口18789的通信。最后,确保配置文件中关于网络绑定的设置(bind)正确指向了loopback(本地回环)。
2. 端口冲突
错误信息:Address already in use
解决方法: 这意味着默认端口18789被其他程序占用了。可以修改OpenClaw配置文件中的gateway端口号,比如换成18790。在修改前,可以用命令netstat -ano查看一下到底是哪个进程占用了端口。
3. 配置文件语法错误
解决方法: JSON文件对格式要求很严格。如果服务启动失败,很可能是配置文件写错了。建议使用在线JSON验证工具(如JSONLint)检查openclaw.json文件。特别注意,所有键名和字符串值都必须使用英文双引号,并且避免在文件内添加中文或其他非标准注释。
???? 附录
1. 安装依赖
某些高级功能或工具可能需要以下环境:
- Python:建议安装Python 3.x并将其添加到系统环境变量PATH中。
- Node.js:如果需要使用
wscat等工具进行WebSocket测试,需要安装Node.js。
✅ 完成
至此,一个完整的OpenClaw服务已经在你的Windows电脑上部署完毕!现在,你已经可以通过WebSocket连接与本地的大模型进行交互和推理了。如果还想进行更深入的定制或了解高级功能,下一步就是去翻阅OpenClaw和Ollama的官方文档,或者在它们的GitHub仓库里探索更多可能性。







