我用一台 Windows 笔记本,把 OpenClaw 跑起来了(小白可复现)
用一台Windows笔记本,把OpenClaw跑起来了(小白可复现)
说实话,很多人可能和我想的一样,以为这类AI助手框架非得用云服务器才能跑。但实测证明:一台普通的Windows笔记本就足够了。这篇文章就专注解决一个问题:如何在本地顺利运行OpenClaw。不搞花哨操作,不涉及复杂配置,纯粹的基础搭建指南。
OpenClaw是什么(50字内)
OpenClaw是一个可编排的AI助手框架,能够接入各种模型与工具,实现任务的自动化执行。
部署条件
个人笔记本(本文示例)或云服务器(后续可迁移)
第一步:先装Scoop(少点点点)
在Windows环境下,强烈建议先安装Scoop作为包管理器。这么做的好处是后续安装Node或NVM都会轻松许多。具体操作如下:
Set-ExecutionPolicy RemoteSigned -Scope CurrentUser
irm get.scoop.sh | iex
scoop --version
第二步:用Scoop装NVM,再装Node 22
记住,不要直接硬装Node,否则多版本切换会相当麻烦。通过NVM来管理,能避免后续很多潜在问题。
scoop install nvm
nvm install 22
nvm use 22
node -v
npm -v
第三步:安装OpenClaw + 跑onboarding
先把CLI工具安装好,然后运行onboarding向导,一次性完成核心配置。
npm i -g openclaw
openclaw --version
openclaw onboard
第四步:配置文件对照示例
配置文件通常位于C:\Users\你的用户名.openclaw\openclaw.json。关于API Key的配置,建议通过向导写入,这比手动填写要稳妥得多。
openclaw configure
openclaw config validate
第五步:启动网关并验证
打开命令行或Windows PowerShell,输入:
openclaw gateway
然后前往Web UI界面,重点确认三件事:能正常对话、模型响应正常、没有出现key或模型相关的报错。
写在最后
这次实践得出的结论很明确:先确保跑通,再考虑优化。一上来就追求最完美的配置,反而最容易半途而废。下一篇将继续分享:如何将OpenClaw接入QQ机器人,实现直接在QQ里发送指令的功能。