彻底解决openclaw的tokens焦虑

2026-05-05阅读 0热度 0
ai 人工智能 OpenClaw

彻底解决OpenClaw的Tokens焦虑

缘起

市面上声称永久免费、不限Token的服务并不少见,但这类方案往往通过限制请求频率来平衡成本。说实话,这并不能从根本上解决问题。真正能让用户彻底摆脱Tokens焦虑的,其实只有一条路:接入本地大模型。

有趣的是,在各种OpenClaw的讨论群里,仍然有不少朋友对如何接入本地模型感到困惑。今天,咱们就来亲手实践一下。

我们就以目前最流行的工具之一——Ollama为例,走通这个流程。

工具简介

为确保复现顺利,先把本文用到的软件环境列出来:

操作系统:Debian 12

Ollama版本:0.16.1

OpenClaw版本:2026.2.14

测试模型:glm-4.7-flash

具体的版本信息,可以参考下图:

请添加图片描述

开始ollama

安装必要软件

# 系统必要工具
apt update -y
apt install zstd git curl jq

# 安装ollama
curl -fsSL https://ollama.com/install.sh | sh

启动和测试ollama

# 启动ollama
export OLLAMA_HOST=0.0.0.0
nohup ollama serve >/dev/null 2>&1 &

#检查服务
ollama list

如果一切正常,你会看到类似下面的输出,表明服务已就绪:

请添加图片描述

接下来,不妨先跟模型打个招呼,测试一下:

ollama run glm-4.7-flash:latest

打个简单的招呼,看看它的反应:

请添加图片描述

接入openclaw

将Ollama接入OpenClaw,目前主要有三种配置方式:

最初级的方法是直接手动编辑配置文件:openclaw.json。

好在,OpenClaw后续版本已经支持更友好的引导式配置:通过执行 `openclaw config` 命令来完成。

这里有个细节需要注意:由于Ollama在引导配置的供应商列表里可能没有单独归类,第一步选择供应商时,建议直接选“所有”。然后在模型选择页面,你就能找到Ollama的选项了。

不过,最省心的办法,其实是使用Ollama自身提供的引导式配置功能。在当前版本下,这算是最简单的入口了。下面我们就用这个方式。

执行命令:

ollama launch openclaw --config

命令执行后,系统会返回一个模型列表。这里要提醒一句:别急着选择那些需要在线下载的推荐模型(体积通常非常大)。我们的目标是使用本地已有的模型,所以请从本地模型列表中选择你刚准备好的 `glm-4.7-flash`,然后回车确认。

后续步骤中,你可以选择直接启动,或者略过,转而使用OpenClaw Gateway来启动服务。

配置完成后,激动人心的时刻到了,来试试效果吧:

请添加图片描述

看到成功的交互响应,基本上就可以宣布:万事大吉!

当然,有些朋友更喜欢直接修改配置文件。为了满足这部分需求,这里也贴出配置文件中与此相关的关键部分,供大家参考:

文件:openclaw.json

{
  "agents": {
    "defaults": {
      "compaction": {
        "mode": "safeguard"
      },
      "maxConcurrent": 4,
      "model": {
        "primary": "ollama/glm-4.7-flash:latest"
      },
      "subagents": {
        "maxConcurrent": 8
      }
    }
  },
  ...
  "models": {
    "providers": {
      "ollama": {
        "api": "openai-completions",
        "apiKey": "ollama-local",
        "baseUrl": "http://127.0.0.1:11434/v1",
        "models": [
          {
            "contextWindow": 131072,
            "cost": {
              "cacheRead": 0,
              "cacheWrite": 0,
              "input": 0,
              "output": 0
            },
            "id": "glm-4.7-flash:latest",
            "input": ["text"],
            "maxTokens": 16384,
            "name": "glm-4.7-flash:latest",
            "reasoning": false
          }
        ]
      }
    }
  },
  ...
}

小结

拥抱本地大模型,很可能成为许多企业用户的最终选择。

道理很简单,在这个数据即价值的时代,越来越多的用户和企业将数据安全与隐私置于首位。本地化部署,恰恰同时回应了两大核心关切:既能有效保护私有数据不外流,又能一劳永逸地消除对Tokens消耗的担忧。

希望这篇指南,能帮你彻底解决OpenClaw的Tokens焦虑。

如果你还没有开始使用OpenClaw,下面几篇入门指南或许能帮你快速上手:

用Docker来安装OpenClaw

自研第一个SKILL-OpenClaw入门

来了!老黄NVIDIA免费为ClawdBot续命

免责声明

本网站新闻资讯均来自公开渠道,力求准确但不保证绝对无误,内容观点仅代表作者本人,与本站无关。若涉及侵权,请联系我们处理。本站保留对声明的修改权,最终解释权归本站所有。

相关阅读

更多
欢迎回来 登录或注册后,可保存提示词和历史记录
登录后可同步收藏、历史记录和常用模板
注册即表示同意服务条款与隐私政策