ollama+openclaw

2026-05-05阅读 0热度 0
开源

正常安装:

第一步,你得把两个基础工具准备好:Node.js 和 Git。装好之后,第一件事通常是切换 npm 的镜像源,这样下载依赖包会快很多,国内网络环境你懂的。具体命令是:

npm config set registry https://registry.npmmirror.com/

接下来,就能正式安装 OpenClaw 本体了。直接用 npm 的全局安装命令就行:

npm install -g openclaw@latest

安装完毕,启动初始化流程。这个命令会引导你完成核心的守护进程安装:

openclaw onboard --install-daemon

然后就是一步步的配置环节了,跟着提示走: 选 yes 确认初始化 -> 选择 QuickStart 快速开始 -> 模型提供商可以先随便选一个(比如 minimax)-> 接着选具体模型(如 minimax M2.5)-> 验证方式选 API。 后面的步骤,对于密钥可以选 Keep current(如果你暂时没有),飞书集成(Feishu)那一步可以跳过。插件路径用默认的 use local plugin path,然后输入你的 App Secret。 配置飞书接口时,填入你的飞书id,通信方式用默认的 WebSocket(default),地区选 .cn,群聊响应权限设为 Open - respond in all groups。 剩下的配置项继续跳过(以后都能在后台调整),最后选择 Open the Web UI,整个基础安装和配置就完成了。

Ollama + OpenClaw 真正本地部署:完全免费、断网可用、多模型切换!

聊完了标准安装流程,接下来才是今天的重头戏。很多人都在追问:OpenClaw 能不能完全跑在本地,不花一分钱,甚至断了网也能用?答案是肯定的。下面这套“Ollama + OpenClaw”的方案,就能实现真正的100%本地化部署,让你拥有一个私有的、可随意切换模型的AI助手。整个过程,不需要任何付费API,彻底摆脱网络依赖。

免责声明

本网站新闻资讯均来自公开渠道,力求准确但不保证绝对无误,内容观点仅代表作者本人,与本站无关。若涉及侵权,请联系我们处理。本站保留对声明的修改权,最终解释权归本站所有。

相关阅读

更多
欢迎回来 登录或注册后,可保存提示词和历史记录
登录后可同步收藏、历史记录和常用模板
注册即表示同意服务条款与隐私政策