Windows 本地部署OpenClaw 指南

2026-05-06阅读 0热度 0
windows

Windows 本地部署 OpenClaw 指南(基于 Ollama)

想在Windows上搭建一个属于自己的AI助手吗?这篇指南将带你一步步完成基于Ollama框架的OpenClaw服务本地部署。OpenClaw本质上是一个桥接工具,它让本地大模型能够通过更友好的WebSocket接口提供服务。


???? 准备工作

1. 安装 Ollama并下载模型

一切的基础是Ollama,它负责在后台真正地运行和管理大模型。

安装步骤:

首先,去Ollama官网找到Windows版的安装包(一个.msi文件)。下载后直接双击,跟着向导完成安装即可,过程非常简单。

安装好后,打开你的命令提示符(CMD)或者PowerShell,输入下面这行命令验证一下:

ollama --version

如果终端顺利显示了版本号,恭喜你,第一步已经搞定了。

2. Ollama 模型下载

2.1. 启动 Ollama 服务:

在部署之前,需要先把Ollama的后台服务跑起来。打开一个新的命令行窗口,输入:

ollama serve
2.2. 下载模型(以 qwen2.5:7b 为例):

服务启动后,在另一个命令行窗口里,执行拉取模型的命令。咱们先用通义千问的7B版本做个示范:

ollama pull qwen2.5:7b

接下来就是等待了,下载速度取决于你的网络环境。

2.3. 检查模型列表:

下载完成后,怎么确认模型已经在本地了呢?输入这个命令看看:

ollama list

如果一切正常,你应该能看到类似下图的输出,其中列出了你刚下载的模型。

在这里插入图片描述

2.4. 创建Modelfile

这里有个关键点需要注意:OpenClaw默认对模型的上下文长度(context window)有较高要求(至少16000 tokens),而很多基础模型可能只支持4096。所以,我们需要为模型“扩容”。

方法是创建一个自定义的Modelfile:

# 切换到用户目录
cd C:\Users\work
# 创建 Modelfile
FROM qwen2.5:7b
PARAMETER num_ctx 32768
# 创建新模型(例如 qwen2.5:7b-32k):
ollama create qwen2.5:7b -f Modelfile

创建完成后,最好验证一下新模型的参数是否已生效:

ollama show qwen2

检查输出中关于上下文长度的参数,确认它已经变成了32768。

在这里插入图片描述

???? 安装 OpenClaw

一键安装

OpenClaw的安装过程非常便捷,官方提供了一键安装脚本。直接在PowerShell中运行下面这行命令即可:

# 在 PowerShell 中运行即可。
curl -fsSL https://openclaw.ai/install.cmd -o install.cmd && install.cmd --tag beta && del install.cmd

3. 验证安装

安装脚本跑完后,同样用版本查询命令来验证一下:

openclaw --version

如果看到版本信息,说明OpenClaw已经成功入驻你的系统。

在这里插入图片描述


???? 配置 OpenClaw

4. 运行配置向导

安装只是第一步,接下来需要让OpenClaw知道怎么连接我们本地的Ollama服务。使用内置的配置向导能省去很多手动编辑文件的麻烦:

openclaw onboard
4.1 按提示选择配置项

向导是交互式的,你只需要根据提示做出选择。下面这几个关键配置项需要特别注意:

步骤 操作
Model/auth provider 选择 Custom Provider(列表最后一项)
API Base URL 输入 http://127.0.0.1:11434/v1(默认)
API Key 选择 OpenAI-compatible
Endpoint compatibility 输入你创建的模型名(如 qwen2.5:7b
Model ID 选择 Custom Provider(列表最后一项)

在这里插入图片描述

后续的选项,比如遇到设置团队、密钥等,可以先选择 Skip for nowNo 跳过,直达完成。

在这里插入图片描述

4.3 验证配置是否成功

配置完成后,向导通常会显示Web UI的访问地址(例如 http://127.0.0.1:18789)和一个访问令牌。

在这里插入图片描述

此时,打开浏览器访问这个地址,尝试输入任意消息,如果AI能够正常回复,那就说明基础连接配置成功了。

???? 启动 OpenClaw 服务

5 修改配置文件

为了让OpenClaw充分利用我们之前为模型扩展的上下文长度,还需要手动调整两个配置文件:

1. C:\Users\WIN\.openclaw\openclaw.json
修改 models.providers.custom-127-0-0-1-11434.models 数组中 id 为你的模型名的对象,将 contextWindow 和 maxTokens 的值从 4096 改为 32768。
2. C:\Users\WIN\.openclaw/agents\main\agent\models.json
同上,修改 maxTokens =32768

具体修改位置可以参考下图:

C:\Users\WIN.openclaw\openclaw.json

在这里插入图片描述

C:\Users\WIN.openclaw/agents\main\agent\models.json

在这里插入图片描述

保存这两个文件后,就可以重启OpenClaw服务了:

openclaw tui

???? 常见问题排查

1. WebSocket 连接失败

错误信息gateway closed (1006 abnormal closure)

解决方法: 首先,确认Ollama的serve服务是否在后台正常运行,并且模型已成功下载。其次,检查Windows防火墙是否意外拦截了本地地址127.0.0.1和端口18789的通信。最后,确保配置文件中关于网络绑定的设置(bind)正确指向了loopback(本地回环)。

2. 端口冲突

错误信息Address already in use

解决方法: 这意味着默认端口18789被其他程序占用了。可以修改OpenClaw配置文件中的gateway端口号,比如换成18790。在修改前,可以用命令netstat -ano查看一下到底是哪个进程占用了端口。

3. 配置文件语法错误

解决方法: JSON文件对格式要求很严格。如果服务启动失败,很可能是配置文件写错了。建议使用在线JSON验证工具(如JSONLint)检查openclaw.json文件。特别注意,所有键名和字符串值都必须使用英文双引号,并且避免在文件内添加中文或其他非标准注释。


???? 附录

1. 安装依赖

某些高级功能或工具可能需要以下环境:

  • Python:建议安装Python 3.x并将其添加到系统环境变量PATH中。
  • Node.js:如果需要使用wscat等工具进行WebSocket测试,需要安装Node.js。

✅ 完成

至此,一个完整的OpenClaw服务已经在你的Windows电脑上部署完毕!现在,你已经可以通过WebSocket连接与本地的大模型进行交互和推理了。如果还想进行更深入的定制或了解高级功能,下一步就是去翻阅OpenClaw和Ollama的官方文档,或者在它们的GitHub仓库里探索更多可能性。

免责声明

本网站新闻资讯均来自公开渠道,力求准确但不保证绝对无误,内容观点仅代表作者本人,与本站无关。若涉及侵权,请联系我们处理。本站保留对声明的修改权,最终解释权归本站所有。

相关阅读

更多
欢迎回来 登录或注册后,可保存提示词和历史记录
登录后可同步收藏、历史记录和常用模板
注册即表示同意服务条款与隐私政策