windows电脑安装openclaw步骤(养龙虾)

2026-05-06阅读 0热度 0
windows

Windows电脑安装OpenClaw

想在Windows上顺利安装OpenClaw?其实并不复杂。整个流程可以拆解为几个清晰的步骤,咱们一步步来。

第一步:环境准备

首先,确保你的系统满足几个基础条件:

安装Node.js:版本需要大于20。这是运行现代JavaScript工具链的基石,务必确认版本符合要求。

安装pnpm:打开命令行,执行 npm install -g pnpm。这个包管理器比npm更快、更节省磁盘空间,已经成为很多项目的首选。

安装Git:用于代码版本管理,大部分现代开发工具链都离不开它。

第二步:在PowerShell中执行命令

接下来的操作,需要你在Windows PowerShell中以管理员身份执行。这是为了避免后续可能出现的权限问题。

先设置npm镜像源,以加速国内下载:

npm config set registry https://registry.npmmirror.com

执行这条命令时,你很可能会遇到一个常见的系统安全策略拦截,提示类似于:

npm : 无法加载文件 D:\nodejs\npm.ps1,因为在此系统上禁止运行脚本。有关详细信息,请参阅 https:/go.microsoft.com/fwlink/?LinkID=135170 中的 about_ExecutionPolicy

别担心,这个问题很好解决。这仅仅是PowerShell默认的执行策略限制。我们临时调整一下当前进程的策略即可:

Set-ExecutionPolicy -Scope Process -ExecutionPolicy Bypass -Force

执行成功后,障碍就扫清了。

第三步:安装OpenClaw

现在,运行核心的安装命令:

pnpm add -g openclaw

这个过程需要一点时间,它会下载所有必要的依赖,请耐心等待。

安装接近尾声时,通常会提供一个“快速安装”的选项,直接选择它完成最后配置即可。当终端输出“done......”之类的成功信息,就意味着主体安装完成了。

第四步:启动与初始化

安装程序通常会自动打开你的默认浏览器,进入OpenClaw的配置引导页面。如果浏览器没有自动弹出,也别慌,手动执行一条命令即可:

openclaw onboard

这条命令会启动本地服务并打开相同的引导界面。

第五步:配置AI模型(以阿里通义千问为例)

要让OpenClaw真正“聪明”起来,关键一步是接入一个大语言模型。这里以配置阿里的通义千问模型为例。

首先,找到OpenClaw的配置文件。它通常位于用户目录下:C:\Users\你的用户名\.openclaw\openclaw.json

用任何文本编辑器打开它,你会看到默认的配置结构。默认配置已经定义了代理、工具、网关等各种参数,但模型的配置部分是空的或需要调整。

我们需要在其中添加模型提供商和模型的详细信息。配置完成后的核心部分应该类似下面这样(请注意,为了清晰展示,这里仅突出显示与模型相关的关键部分,实际修改时请确保JSON格式完整正确):

{
  "models": {
    "mode": "merge",
    "providers": {
      "bailian": {
        "baseUrl": "https://dashscope.aliyuncs.com/compatible-mode/v1", // 北京区域地址,其他区域请参考官方文档
        "apiKey": "你的百炼平台API密钥", // 此处需要替换成你自己的密钥
        "api": "openai-completions",
        "models": [
          {
            "id": "qwen3-max-2026-01-23", // 模型ID,需与百炼平台模型列表中的完全一致
            "name": "通义千问Max", // 自定义一个你喜欢的识别名称
            "reasoning": false, // 这是一个重要提示:必须设为false,否则可能无法得到回复
            "input": ["text"],
            "contextWindow": 262144, // 模型支持的上下文长度
            "maxTokens": 65536 // 最大输出token数,可按需调整
          }
        ]
      }
    }
  },
  "agents": {
    "defaults": {
      ... // 其他原有配置保持不变
      "model": {
        "primary": "bailian/qwen3-max-2026-01-23" // 设置此模型为默认主模型
      },
      "models": {
        "bailian/qwen3-max-2026-01-23": {} // 启用该模型,必须与primary指定的一致
      }
    }
  },
  ... // 文件的其余部分(gateway, tools等)保持原样
}

配置时有几个关键点需要注意:

  1. API密钥:你需要从阿里云百炼平台获取有效的apiKey,并填入对应位置。
  2. 模型IDid字段必须与你在百炼平台上看到的目标模型ID一字不差。
  3. reasoning开关:经验表明,对于通义千问模型,将reasoning设置为false是必要的,否则容易导致回复内容为空。
  4. 地址与格式:注意baseUrlapi的格式,它们确保了OpenClaw能正确调用百炼的兼容接口。

保存好修改后的配置文件。

完成与使用

至此,所有配置工作就完成了。回到浏览器,刷新OpenClaw的页面,或者重新执行openclaw onboard启动。现在,你就可以开始与配置好的通义千问模型进行聊天和交互了。

整个流程看似步骤不少,但一旦理清“环境准备→核心安装→模型配置”这条主线,操作起来就会非常顺畅。关键是每一步都确保执行到位,尤其是PowerShell的权限和JSON配置的准确性。

免责声明

本网站新闻资讯均来自公开渠道,力求准确但不保证绝对无误,内容观点仅代表作者本人,与本站无关。若涉及侵权,请联系我们处理。本站保留对声明的修改权,最终解释权归本站所有。

相关阅读

更多
欢迎回来 登录或注册后,可保存提示词和历史记录
登录后可同步收藏、历史记录和常用模板
注册即表示同意服务条款与隐私政策