【openclaw】在windows下安装openclaw

2026-05-06阅读 0热度 0
人工智能 Llama

先决条件

Windows

在Linux上安装通常会顺畅许多。不过,考虑到大多数人日常使用的还是Windows环境,这次我们就以Windows平台为例,来看看具体的安装步骤。

LLM

OpenClaw本质上是一个智能体助手,因此它的运作离不开一个大语言模型作为核心引擎。

这个模型可以是在线服务提供商。以笔者自己的设备为例,一台搭载RTX 4070显卡的电脑,就非常适合在本地WSL环境中部署一个轻量级模型,比如Qwen3-1.7B。具体的部署方法,可以参考之前的专题文章。不过,这次我们还需要补充几个关键点:

由于OpenClaw需要用到vLLM的工具调用功能——留意配置文件里的这段代码:

"commands": {"native": "auto","nativeSkills": "auto","restart": true,"ownerDisplay": "raw"},

——因此,你使用的vLLM版本必须不低于0.8.3。同时,在启动vLLM服务时,务必添加两个新参数:--enable-auto-tool-choice--tool-call-parser。这里,我们可以采用Meta模型的解析模板来进行启动:

vllm serve /home/bluebonnet27/models/Qwen3-1.7B --trust-remote-code --served-model-name qwen3 --port 8000 --host 0.0.0.0 --gpu-memory-utilization 0.9 --enable-auto-tool-choice --tool-call-parser llama3_json

NodeJS

我们将通过NodeJS进行安装,这要求Node版本号大于24。这个版本要求确实不低,尽管24是长期支持版,但它也是当前最新的LTS版本了。

你可以通过下面的命令快速检查本机的Node版本:

PS C:\Users\> node -vv24.14.0

安装

打开终端,执行全局安装命令:

npm install -g openclaw@latest

接下来是关键一步:务必在管理员权限下启动终端(笔者使用的是Powershell 7)。因为安装过程涉及到系统服务的配置,没有管理员权限是无法进行的。在此终端中执行:

openclaw onboard

如果一切顺利,你会看到初始化界面(看到它对Windows用户的“温馨提示”,确实让人会心一笑):

在这里插入图片描述

大部分选项保持默认即可:

◇I understand this is personal-by-default and shared/multi-user use requires lock-down. Continue?│Yes│◇Onboarding mode│Manual│◇Existing config detected ─────────╮│││workspace: ~\.openclaw\workspace││model: qwen3-1-7b/qwen3 ││gateway.mode: local ││gateway.port: 18789 ││gateway.bind: loopback│││├────────────────────────────────────╯│◇Config handling│Use existing values│◇What do you want to set up?│Local gateway (this machine)

在选择模型这一步需要特别注意:请选择“Custom Provider”。在填写地址时,填入你本地vLLM服务的地址(例如http://localhost:8000/v1)。API Key这一栏虽然我们的本地模型不校验,但OpenClaw会强制要求填写,不能为空。我们可以随意输入一个字符串,比如“123”:

◇Model/auth provider│Custom Provider│◇API Base URL│http://localhost:8000/v1│◇How do you want to provide this API key?│Paste API key now│◇API Key (leave blank if not required)│123│◇Endpoint compatibility│OpenAI-compatible│◇Model ID│qwen3│◇Verification successful.

OpenClaw会尝试连接并验证模型端点,验证通过后即可进入下一环节。

网络代理模式选择“本地”,安全验证方式选择“Token”。至于Skill和聊天工具配置,初期使用可以先跳过:

◇Gateway port│18789│◇Gateway bind│Loopback (127.0.0.1)│◇Gateway auth│Token│◇Tailscale exposure│Off│◇How do you want to provide the gateway token?│Generate/store plaintext token│◇Gateway token (blank to generate)│

安装完成后,浏览器会自动弹出,打开地址 http://127.0.0.1:18789/chat

在这里插入图片描述

另外,有个小细节需要调整:默认的模型上下文长度和生成长度可能偏小。我们需要手动修改配置文件来调大这两个值。虽然网页界面或许也能修改,但直接改文件通常更快捷。在Windows系统上,配置文件位于以下路径:

C:\Users\用户名\.openclaw\openclaw.jsonC:\Users\用户名\.openclaw\agents\main\agent\models.json

在两个文件里,你都能找到相同的模型配置段落:

{"providers": {"qwen3-1-7b": {"baseUrl": "http://localhost:8000/v1","apiKey": "123","api": "openai-completions","models": [{"id": "qwen3","name": "qwen3 (Custom Provider)","api": "openai-completions","reasoning": false,"input": ["text"],"cost": {"input": 0,"output": 0,"cacheRead": 0,"cacheWrite": 0},"contextWindow": 25000,"maxTokens": 25000}]}}}

找到其中的 contextWindow(上下文窗口)和 maxTokens(最大生成长度)字段,将它们修改为更大的数值即可。

使用

Windows系统的权限管理相对严格,这一点从初始化界面的提示就能看出来。实际上,很多在Linux上可以轻松执行的操作,在Windows环境下会受到限制。不过这也没关系,对于初次接触和体验来说,现有的功能已经足够探索一番了。后续还可以结合聊天工具进行更深入的配置和玩法挖掘。

免责声明

本网站新闻资讯均来自公开渠道,力求准确但不保证绝对无误,内容观点仅代表作者本人,与本站无关。若涉及侵权,请联系我们处理。本站保留对声明的修改权,最终解释权归本站所有。

相关阅读

更多
欢迎回来 登录或注册后,可保存提示词和历史记录
登录后可同步收藏、历史记录和常用模板
注册即表示同意服务条款与隐私政策