配置 OpenClaw 使用 Ollama 本地模型
前提条件
在开始配置之前,你得确保Ollama服务已经安装并正常运行,而且模型qwen3-vl:2b已经顺利下载到本地。
配置步骤
接下来需要修改OpenClaw的配置文件,把Ollama指定为模型提供商,同时设置好默认使用的模型。这事儿其实不复杂,跟着步骤走就行。
验证配置
配置完成后,最好通过TUI界面进行一次实际的对话测试。这能帮你确认模型是否真的在正常工作,避免后续使用时出现意外。
高级配置
如果基础配置满足不了你的需求,还可以根据实际情况添加更多模型,或者调整像contextWindow和maxTokens这样的参数。灵活配置能让工具更好地为你服务。
注意事项
这里有几个关键点需要特别留意:首先,Ollama服务地址必须与配置中的baseUrl保持一致;其次,模型ID一定要与Ollama中的实际模型名称完全匹配;另外,如果模型支持多模态功能,记得在input字段中添加"image"等相应的类型。
现在,打开~/.openclaw/openclaw.json文件,添加或修改以下配置内容:
{
"agents": {
"defaults": {
"models": {
"ollama": {}
},
"model": {
"primary": "ollama/qwen3-vl:2b"
}
}
},
"models": {
"providers": {
"ollama": {
"baseUrl": "http://127.0.0.1:11434/v1",
"apiKey": "ollama-local",
"api": "openai-completions",
"models": [
{
"id": "qwen3-vl:2b",
"name": "Qwen3 VL 2B",
"reasoning": false,
"input": ["text"],
"cost": {
"input": 0,
"output": 0,
"cacheRead": 0,
"cacheWrite": 0
},
"contextWindow": 128000,
"maxTokens": 8192
}
]
}
}
}
}
重启 OpenClaw 网关服务
配置完成后,别忘了重启网关服务让更改生效。执行下面这个命令就行:
openclaw gateway restart
测试对话功能
最后一步,用OpenClaw的TUI界面测试一下对话功能是否正常:
openclaw tui