ollama+openclaw
正常安装:
第一步,你得把两个基础工具准备好:Node.js 和 Git。装好之后,第一件事通常是切换 npm 的镜像源,这样下载依赖包会快很多,国内网络环境你懂的。具体命令是:
npm config set registry https://registry.npmmirror.com/
接下来,就能正式安装 OpenClaw 本体了。直接用 npm 的全局安装命令就行:
npm install -g openclaw@latest
安装完毕,启动初始化流程。这个命令会引导你完成核心的守护进程安装:
openclaw onboard --install-daemon
然后就是一步步的配置环节了,跟着提示走:
选 yes 确认初始化 -> 选择 QuickStart 快速开始 -> 模型提供商可以先随便选一个(比如 minimax)-> 接着选具体模型(如 minimax M2.5)-> 验证方式选 API。
后面的步骤,对于密钥可以选 Keep current(如果你暂时没有),飞书集成(Feishu)那一步可以跳过。插件路径用默认的 use local plugin path,然后输入你的 App Secret。
配置飞书接口时,填入你的飞书id,通信方式用默认的 WebSocket(default),地区选 .cn,群聊响应权限设为 Open - respond in all groups。
剩下的配置项继续跳过(以后都能在后台调整),最后选择 Open the Web UI,整个基础安装和配置就完成了。
Ollama + OpenClaw 真正本地部署:完全免费、断网可用、多模型切换!
聊完了标准安装流程,接下来才是今天的重头戏。很多人都在追问:OpenClaw 能不能完全跑在本地,不花一分钱,甚至断了网也能用?答案是肯定的。下面这套“Ollama + OpenClaw”的方案,就能实现真正的100%本地化部署,让你拥有一个私有的、可随意切换模型的AI助手。整个过程,不需要任何付费API,彻底摆脱网络依赖。