【openclaw】在windows下安装openclaw
先决条件
Windows
在Linux上安装通常会顺畅许多。不过,考虑到大多数人日常使用的还是Windows环境,这次我们就以Windows平台为例,来看看具体的安装步骤。
LLM
OpenClaw本质上是一个智能体助手,因此它的运作离不开一个大语言模型作为核心引擎。
这个模型可以是在线服务提供商。以笔者自己的设备为例,一台搭载RTX 4070显卡的电脑,就非常适合在本地WSL环境中部署一个轻量级模型,比如Qwen3-1.7B。具体的部署方法,可以参考之前的专题文章。不过,这次我们还需要补充几个关键点:
由于OpenClaw需要用到vLLM的工具调用功能——留意配置文件里的这段代码:
"commands": {"native": "auto","nativeSkills": "auto","restart": true,"ownerDisplay": "raw"},
——因此,你使用的vLLM版本必须不低于0.8.3。同时,在启动vLLM服务时,务必添加两个新参数:--enable-auto-tool-choice 和 --tool-call-parser。这里,我们可以采用Meta模型的解析模板来进行启动:
vllm serve /home/bluebonnet27/models/Qwen3-1.7B --trust-remote-code --served-model-name qwen3 --port 8000 --host 0.0.0.0 --gpu-memory-utilization 0.9 --enable-auto-tool-choice --tool-call-parser llama3_json
NodeJS
我们将通过NodeJS进行安装,这要求Node版本号大于24。这个版本要求确实不低,尽管24是长期支持版,但它也是当前最新的LTS版本了。
你可以通过下面的命令快速检查本机的Node版本:
PS C:\Users\> node -vv24.14.0
安装
打开终端,执行全局安装命令:
npm install -g openclaw@latest
接下来是关键一步:务必在管理员权限下启动终端(笔者使用的是Powershell 7)。因为安装过程涉及到系统服务的配置,没有管理员权限是无法进行的。在此终端中执行:
openclaw onboard
如果一切顺利,你会看到初始化界面(看到它对Windows用户的“温馨提示”,确实让人会心一笑):
大部分选项保持默认即可:
◇I understand this is personal-by-default and shared/multi-user use requires lock-down. Continue?│Yes│◇Onboarding mode│Manual│◇Existing config detected ─────────╮│││workspace: ~\.openclaw\workspace││model: qwen3-1-7b/qwen3 ││gateway.mode: local ││gateway.port: 18789 ││gateway.bind: loopback│││├────────────────────────────────────╯│◇Config handling│Use existing values│◇What do you want to set up?│Local gateway (this machine)
在选择模型这一步需要特别注意:请选择“Custom Provider”。在填写地址时,填入你本地vLLM服务的地址(例如http://localhost:8000/v1)。API Key这一栏虽然我们的本地模型不校验,但OpenClaw会强制要求填写,不能为空。我们可以随意输入一个字符串,比如“123”:
◇Model/auth provider│Custom Provider│◇API Base URL│http://localhost:8000/v1│◇How do you want to provide this API key?│Paste API key now│◇API Key (leave blank if not required)│123│◇Endpoint compatibility│OpenAI-compatible│◇Model ID│qwen3│◇Verification successful.
OpenClaw会尝试连接并验证模型端点,验证通过后即可进入下一环节。
网络代理模式选择“本地”,安全验证方式选择“Token”。至于Skill和聊天工具配置,初期使用可以先跳过:
◇Gateway port│18789│◇Gateway bind│Loopback (127.0.0.1)│◇Gateway auth│Token│◇Tailscale exposure│Off│◇How do you want to provide the gateway token?│Generate/store plaintext token│◇Gateway token (blank to generate)│
安装完成后,浏览器会自动弹出,打开地址 http://127.0.0.1:18789/chat:
另外,有个小细节需要调整:默认的模型上下文长度和生成长度可能偏小。我们需要手动修改配置文件来调大这两个值。虽然网页界面或许也能修改,但直接改文件通常更快捷。在Windows系统上,配置文件位于以下路径:
C:\Users\用户名\.openclaw\openclaw.jsonC:\Users\用户名\.openclaw\agents\main\agent\models.json
在两个文件里,你都能找到相同的模型配置段落:
{"providers": {"qwen3-1-7b": {"baseUrl": "http://localhost:8000/v1","apiKey": "123","api": "openai-completions","models": [{"id": "qwen3","name": "qwen3 (Custom Provider)","api": "openai-completions","reasoning": false,"input": ["text"],"cost": {"input": 0,"output": 0,"cacheRead": 0,"cacheWrite": 0},"contextWindow": 25000,"maxTokens": 25000}]}}}
找到其中的 contextWindow(上下文窗口)和 maxTokens(最大生成长度)字段,将它们修改为更大的数值即可。
使用
Windows系统的权限管理相对严格,这一点从初始化界面的提示就能看出来。实际上,很多在Linux上可以轻松执行的操作,在Windows环境下会受到限制。不过这也没关系,对于初次接触和体验来说,现有的功能已经足够探索一番了。后续还可以结合聊天工具进行更深入的配置和玩法挖掘。

