windows电脑安装openclaw步骤(养龙虾)
Windows电脑安装OpenClaw
想在Windows上顺利安装OpenClaw?其实并不复杂。整个流程可以拆解为几个清晰的步骤,咱们一步步来。
第一步:环境准备
首先,确保你的系统满足几个基础条件:
安装Node.js:版本需要大于20。这是运行现代JavaScript工具链的基石,务必确认版本符合要求。
安装pnpm:打开命令行,执行 npm install -g pnpm。这个包管理器比npm更快、更节省磁盘空间,已经成为很多项目的首选。
安装Git:用于代码版本管理,大部分现代开发工具链都离不开它。
第二步:在PowerShell中执行命令
接下来的操作,需要你在Windows PowerShell中以管理员身份执行。这是为了避免后续可能出现的权限问题。
先设置npm镜像源,以加速国内下载:
npm config set registry https://registry.npmmirror.com
执行这条命令时,你很可能会遇到一个常见的系统安全策略拦截,提示类似于:
npm : 无法加载文件 D:\nodejs\npm.ps1,因为在此系统上禁止运行脚本。有关详细信息,请参阅 https:/go.microsoft.com/fwlink/?LinkID=135170 中的 about_ExecutionPolicy
别担心,这个问题很好解决。这仅仅是PowerShell默认的执行策略限制。我们临时调整一下当前进程的策略即可:
Set-ExecutionPolicy -Scope Process -ExecutionPolicy Bypass -Force
执行成功后,障碍就扫清了。
第三步:安装OpenClaw
现在,运行核心的安装命令:
pnpm add -g openclaw
这个过程需要一点时间,它会下载所有必要的依赖,请耐心等待。
安装接近尾声时,通常会提供一个“快速安装”的选项,直接选择它完成最后配置即可。当终端输出“done......”之类的成功信息,就意味着主体安装完成了。
第四步:启动与初始化
安装程序通常会自动打开你的默认浏览器,进入OpenClaw的配置引导页面。如果浏览器没有自动弹出,也别慌,手动执行一条命令即可:
openclaw onboard
这条命令会启动本地服务并打开相同的引导界面。
第五步:配置AI模型(以阿里通义千问为例)
要让OpenClaw真正“聪明”起来,关键一步是接入一个大语言模型。这里以配置阿里的通义千问模型为例。
首先,找到OpenClaw的配置文件。它通常位于用户目录下:C:\Users\你的用户名\.openclaw\openclaw.json。
用任何文本编辑器打开它,你会看到默认的配置结构。默认配置已经定义了代理、工具、网关等各种参数,但模型的配置部分是空的或需要调整。
我们需要在其中添加模型提供商和模型的详细信息。配置完成后的核心部分应该类似下面这样(请注意,为了清晰展示,这里仅突出显示与模型相关的关键部分,实际修改时请确保JSON格式完整正确):
{
"models": {
"mode": "merge",
"providers": {
"bailian": {
"baseUrl": "https://dashscope.aliyuncs.com/compatible-mode/v1", // 北京区域地址,其他区域请参考官方文档
"apiKey": "你的百炼平台API密钥", // 此处需要替换成你自己的密钥
"api": "openai-completions",
"models": [
{
"id": "qwen3-max-2026-01-23", // 模型ID,需与百炼平台模型列表中的完全一致
"name": "通义千问Max", // 自定义一个你喜欢的识别名称
"reasoning": false, // 这是一个重要提示:必须设为false,否则可能无法得到回复
"input": ["text"],
"contextWindow": 262144, // 模型支持的上下文长度
"maxTokens": 65536 // 最大输出token数,可按需调整
}
]
}
}
},
"agents": {
"defaults": {
... // 其他原有配置保持不变
"model": {
"primary": "bailian/qwen3-max-2026-01-23" // 设置此模型为默认主模型
},
"models": {
"bailian/qwen3-max-2026-01-23": {} // 启用该模型,必须与primary指定的一致
}
}
},
... // 文件的其余部分(gateway, tools等)保持原样
}
配置时有几个关键点需要注意:
- API密钥:你需要从阿里云百炼平台获取有效的
apiKey,并填入对应位置。 - 模型ID:
id字段必须与你在百炼平台上看到的目标模型ID一字不差。 - reasoning开关:经验表明,对于通义千问模型,将
reasoning设置为false是必要的,否则容易导致回复内容为空。 - 地址与格式:注意
baseUrl和api的格式,它们确保了OpenClaw能正确调用百炼的兼容接口。
保存好修改后的配置文件。
完成与使用
至此,所有配置工作就完成了。回到浏览器,刷新OpenClaw的页面,或者重新执行openclaw onboard启动。现在,你就可以开始与配置好的通义千问模型进行聊天和交互了。
整个流程看似步骤不少,但一旦理清“环境准备→核心安装→模型配置”这条主线,操作起来就会非常顺畅。关键是每一步都确保执行到位,尤其是PowerShell的权限和JSON配置的准确性。