本地部署智能体OpenClaw
OpenClaw:当前最成熟、社区最活跃的选项之一
如果要在众多选择中挑出一个“实干派”,OpenClaw 大概率会获得提名。它不仅擅长与你对话,其核心价值更在于“执行”——你能清楚地看到,自己的一句话指令是如何一步步被转化为实实在在的电脑操作。对于那些希望立刻获得一个能干活的助手,并且对中文支持有较高要求的朋友来说,这个选项通常不会让人失望。
OpenClaw 本地部署实战(Windows 11 + Ollama)
这套方案最大的吸引力在于数据完全私有。所有的处理和存储都在你的本地计算机上完成,从根本上避免了隐私泄露的担忧,甚至断网也不影响使用。它的运作原理很清晰:由 Ollama 负责调用本地大模型(比如阿里的 Qwen 系列),而 OpenClaw 则扮演“决策大脑”的角色,基于模型的理解来规划并执行任务。
第一步:准备你的电脑
在动手之前,先确认一下电脑的“家底”,这能让后续的部署过程顺畅不少:
硬件方面,建议配置是 16GB 内存加上一块 NVIDIA 显卡(显存不小于 4GB)。当然,没有独立显卡也能运行,只是需要选择参数更小的模型,相应的,速度上会打些折扣。
软件方面,需要准备好 Node.js(版本不低于 18)和 PowerShell,注意运行 PowerShell 时需要管理员权限。
第二步:安装“大脑”——Ollama 与大模型
Ollama 算得上是一个“神器”,它能帮你省去大量配置麻烦,轻松在本地启动和管理各种大模型。
首先是下载 Ollama:访问其官网,获取 Windows 版本安装包,之后基本上就是一路“下一步”即可完成安装。
接着拉取模型:打开 PowerShell,输入下面的命令来下载一个对中文理解出色的模型(通义千问)。这个命令会拉取大约 4.7GB 的模型文件,需要耐心等待一会儿。
ollama pull qwen2.5:7b
(这里是关键一步)定制模型:OpenClaw 的有效工作需要模型具备较大的“记忆力”,也就是上下文窗口。因此,我们需要手动创建一个增强版:
# 创建一个配置文件
echo “FROM qwen2.5:7b\nPARAMETER num_ctx 32768” > Modelfile
# 基于配置文件创建新模型
ollama create qwen2.5:7b-32k -f Modelfile
第三步:安装“执行官”——OpenClaw
一键安装:在 PowerShell 中输入以下命令,即可完成 OpenClaw 的安装。
npm install -g openclaw
连接模型:运行配置向导,告诉 OpenClaw 该去何处调用我们刚刚准备好的“大脑”。
openclaw onboard
随后,根据屏幕提示,依次选择或输入以下信息:
Model/auth provider: 选择 Custom Provider(自定义)
API Base URL: 输入 http://127.0.0.1:11434/v1(这是本地 Ollama 服务的地址)
API Key: 此处不能留空,可以随意输入一个字符串,比如 ollama
Model ID: 输入我们刚才创建的那个增强版模型名称 qwen2.5:7b-32k
启动服务:如果一切配置无误,运行下面的命令即可启动 OpenClaw 网关服务。启动成功后,命令行会显示一个 Web 访问地址(通常是 http://127.0.0.1:18789)以及一个管理员 Token。
openclaw gateway start
第四步:验收成果
现在,打开你的浏览器,访问刚才得到的地址(例如 http://127.0.0.1:18789),输入 Token 登录后台。至此,你的私人 AI 助手就已经准备就绪了。不妨试着给它下达几个指令,看看它的执行力:
“在当前目录下,帮我新建一个名为‘项目笔记’的文件夹。”
“写一个能计算斐波那契数列前 20 项的 Python 脚本,并保存为 fib.py 文件。”
“帮我分析一下 C 盘,看看是哪些文件夹占用了最多的空间。”
