win11本地部署openclaw实操第9集-配置 OpenClaw 连接本地模型参数
1. 解决上下文窗口问题
要让OpenClaw正确支持长上下文,关键在于统一两端的设置。具体来说,需要将OpenClaw从模型元数据中读取的上下文窗口值,与Ollama服务端的设置,都修改为32768。
1.1 手动修改配置文件
这个过程不复杂,但需要对两个关键配置文件动动手。首先,找到OpenClaw的配置文件,通常位于以下路径:
~/.openclaw/openclaw.json
~/.openclaw/agents/main/agent/models.json
打开它们,找到与Ollama模型相关的配置段落。核心任务是定位到 contextWindow 和 maxTokens 这两个参数,并将它们的值都改为 32768。
修改后的配置项看起来应该是这样的:
{
"providers": {
"ollama": {
"baseUrl": "http://localhost:12346/v1",
"apiKey": "ollama-local",
"api": "openai-completions",
"models": [{
"id": "gpt-oss:20b",
"name": "gpt-oss:20b",
"reasoning": false,
"input": ["text"],
"cost": {
"input": 0,
"output": 0,
"cacheRead": 0,
"cacheWrite": 0
},
"contextWindow": 32768,
"maxTokens": 32768,
"api": "openai-completions"
}]
}
}
}
话说回来,确保这两个数值一致至关重要,任何一方的错配都可能导致上下文长度无法达到预期。
1.2 重启Ollama服务
配置文件改好了,下一步是让Ollama服务重新加载新配置。最直接的方法是先终止现有进程,再用指定的端口和模型路径重新启动。
在终端中执行以下命令:
(base) gpu3090@DESKTOP-8IU6393:/mnt/c/Users/Administrator$ sudo killall -9 ollama
[sudo] password for gpu3090:
[1]+ Killed OLLAMA_HOST=0.0.0.0:12346 OLLAMA_MODELS=/home/gpu3090/.ollama/models ollama serve
(base) gpu3090@DESKTOP-8IU6393:/mnt/c/Users/Administrator$ OLLAMA_HOST=0.0.0.0:12346 OLLAMA_MODELS=/home/gpu3090/.ollama/models ollama serve &
这样,Ollama服务就会在后台以新的配置运行起来了。
1.3 重启OpenClaw网关
最后一步,重启OpenClaw的网关服务,让它能够识别到我们刚才所做的所有更改。
执行这个简单的命令即可:
openclaw gateway restart
完成以上三步,从配置到服务重启的闭环就形成了。通常,经过这一套操作,上下文窗口的限制就应该被成功扩展到32768了。如果问题依旧,不妨回头再检查一遍配置文件的路径和参数是否正确无误。

