彻底解决openclaw的tokens焦虑
彻底解决OpenClaw的Tokens焦虑
缘起
市面上声称永久免费、不限Token的服务并不少见,但这类方案往往通过限制请求频率来平衡成本。说实话,这并不能从根本上解决问题。真正能让用户彻底摆脱Tokens焦虑的,其实只有一条路:接入本地大模型。
有趣的是,在各种OpenClaw的讨论群里,仍然有不少朋友对如何接入本地模型感到困惑。今天,咱们就来亲手实践一下。
我们就以目前最流行的工具之一——Ollama为例,走通这个流程。
工具简介
为确保复现顺利,先把本文用到的软件环境列出来:
操作系统:Debian 12
Ollama版本:0.16.1
OpenClaw版本:2026.2.14
测试模型:glm-4.7-flash
具体的版本信息,可以参考下图:
开始ollama
安装必要软件
# 系统必要工具
apt update -y
apt install zstd git curl jq
# 安装ollama
curl -fsSL https://ollama.com/install.sh | sh
启动和测试ollama
# 启动ollama
export OLLAMA_HOST=0.0.0.0
nohup ollama serve >/dev/null 2>&1 &
#检查服务
ollama list
如果一切正常,你会看到类似下面的输出,表明服务已就绪:
接下来,不妨先跟模型打个招呼,测试一下:
ollama run glm-4.7-flash:latest
打个简单的招呼,看看它的反应:
接入openclaw
将Ollama接入OpenClaw,目前主要有三种配置方式:
最初级的方法是直接手动编辑配置文件:openclaw.json。
好在,OpenClaw后续版本已经支持更友好的引导式配置:通过执行 `openclaw config` 命令来完成。
这里有个细节需要注意:由于Ollama在引导配置的供应商列表里可能没有单独归类,第一步选择供应商时,建议直接选“所有”。然后在模型选择页面,你就能找到Ollama的选项了。
不过,最省心的办法,其实是使用Ollama自身提供的引导式配置功能。在当前版本下,这算是最简单的入口了。下面我们就用这个方式。
执行命令:
ollama launch openclaw --config
命令执行后,系统会返回一个模型列表。这里要提醒一句:别急着选择那些需要在线下载的推荐模型(体积通常非常大)。我们的目标是使用本地已有的模型,所以请从本地模型列表中选择你刚准备好的 `glm-4.7-flash`,然后回车确认。
后续步骤中,你可以选择直接启动,或者略过,转而使用OpenClaw Gateway来启动服务。
配置完成后,激动人心的时刻到了,来试试效果吧:
看到成功的交互响应,基本上就可以宣布:万事大吉!
当然,有些朋友更喜欢直接修改配置文件。为了满足这部分需求,这里也贴出配置文件中与此相关的关键部分,供大家参考:
文件:openclaw.json
{
"agents": {
"defaults": {
"compaction": {
"mode": "safeguard"
},
"maxConcurrent": 4,
"model": {
"primary": "ollama/glm-4.7-flash:latest"
},
"subagents": {
"maxConcurrent": 8
}
}
},
...
"models": {
"providers": {
"ollama": {
"api": "openai-completions",
"apiKey": "ollama-local",
"baseUrl": "http://127.0.0.1:11434/v1",
"models": [
{
"contextWindow": 131072,
"cost": {
"cacheRead": 0,
"cacheWrite": 0,
"input": 0,
"output": 0
},
"id": "glm-4.7-flash:latest",
"input": ["text"],
"maxTokens": 16384,
"name": "glm-4.7-flash:latest",
"reasoning": false
}
]
}
}
},
...
}
小结
拥抱本地大模型,很可能成为许多企业用户的最终选择。
道理很简单,在这个数据即价值的时代,越来越多的用户和企业将数据安全与隐私置于首位。本地化部署,恰恰同时回应了两大核心关切:既能有效保护私有数据不外流,又能一劳永逸地消除对Tokens消耗的担忧。
希望这篇指南,能帮你彻底解决OpenClaw的Tokens焦虑。
如果你还没有开始使用OpenClaw,下面几篇入门指南或许能帮你快速上手:
用Docker来安装OpenClaw
自研第一个SKILL-OpenClaw入门
来了!老黄NVIDIA免费为ClawdBot续命



