win11本地部署openclaw实操第9集-配置 OpenClaw 连接本地模型参数

2026-05-06阅读 0热度 0
人工智能

1. 解决上下文窗口问题

要让OpenClaw正确支持长上下文,关键在于统一两端的设置。具体来说,需要将OpenClaw从模型元数据中读取的上下文窗口值,与Ollama服务端的设置,都修改为32768。

1.1 手动修改配置文件

这个过程不复杂,但需要对两个关键配置文件动动手。首先,找到OpenClaw的配置文件,通常位于以下路径:

~/.openclaw/openclaw.json

~/.openclaw/agents/main/agent/models.json

打开它们,找到与Ollama模型相关的配置段落。核心任务是定位到 contextWindowmaxTokens 这两个参数,并将它们的值都改为 32768

在这里插入图片描述

修改后的配置项看起来应该是这样的:

{
  "providers": {
    "ollama": {
      "baseUrl": "http://localhost:12346/v1",
      "apiKey": "ollama-local",
      "api": "openai-completions",
      "models": [{
        "id": "gpt-oss:20b",
        "name": "gpt-oss:20b",
        "reasoning": false,
        "input": ["text"],
        "cost": {
          "input": 0,
          "output": 0,
          "cacheRead": 0,
          "cacheWrite": 0
        },
        "contextWindow": 32768,
        "maxTokens": 32768,
        "api": "openai-completions"
      }]
    }
  }
}

在这里插入图片描述

话说回来,确保这两个数值一致至关重要,任何一方的错配都可能导致上下文长度无法达到预期。

1.2 重启Ollama服务

配置文件改好了,下一步是让Ollama服务重新加载新配置。最直接的方法是先终止现有进程,再用指定的端口和模型路径重新启动。

在终端中执行以下命令:

(base) gpu3090@DESKTOP-8IU6393:/mnt/c/Users/Administrator$ sudo killall -9 ollama
[sudo] password for gpu3090:
[1]+  Killed                  OLLAMA_HOST=0.0.0.0:12346 OLLAMA_MODELS=/home/gpu3090/.ollama/models ollama serve
(base) gpu3090@DESKTOP-8IU6393:/mnt/c/Users/Administrator$ OLLAMA_HOST=0.0.0.0:12346 OLLAMA_MODELS=/home/gpu3090/.ollama/models ollama serve &

这样,Ollama服务就会在后台以新的配置运行起来了。

1.3 重启OpenClaw网关

最后一步,重启OpenClaw的网关服务,让它能够识别到我们刚才所做的所有更改。

执行这个简单的命令即可:

openclaw gateway restart

完成以上三步,从配置到服务重启的闭环就形成了。通常,经过这一套操作,上下文窗口的限制就应该被成功扩展到32768了。如果问题依旧,不妨回头再检查一遍配置文件的路径和参数是否正确无误。

免责声明

本网站新闻资讯均来自公开渠道,力求准确但不保证绝对无误,内容观点仅代表作者本人,与本站无关。若涉及侵权,请联系我们处理。本站保留对声明的修改权,最终解释权归本站所有。

相关阅读

更多
欢迎回来 登录或注册后,可保存提示词和历史记录
登录后可同步收藏、历史记录和常用模板
注册即表示同意服务条款与隐私政策