Openclaw接入本地模型API
1) 在 OpenClaw 宿主机上验证对远程 Ollama 的访问
首先,请在运行 OpenClaw 的服务器终端中执行以下命令:
curl http://192.168.2.175:11434/api/tags
当该命令返回一个 JSON 格式的模型列表时,表明网络路径已打通。GET /api/tags 是 Ollama 提供的标准 API 端点,用于枚举本地已下载的所有模型。
2) 在 OpenClaw 中配置 Ollama 模型提供方
配置的关键在于参数设置顺序。为避免一个已知的 CLI 校验问题,请务必先配置 baseUrl,再设置 apiKey。错误的顺序可能导致配置失败。
请严格按照以下顺序执行命令:
openclaw config set models.providers.ollama.baseUrl "http://192.168.2.175:11434"
openclaw config set models.providers.ollama.api "ollama"
openclaw config set models.providers.ollama.apiKey "ollama-local"
请注意,apiKey 字段在此处仅作为占位符使用(例如“ollama-local”),无需填写真实密钥。这是 OpenClaw 官方集成文档中说明的特定要求。
3) 将默认模型切换至本地模型
完成提供方配置后,指定要使用的具体模型。执行:
openclaw config set agents.defaults.model.primary “ollama/qwen2.5:7b-instruct”
OpenClaw 遵循 provider/model 的命名约定。例如 ollama/qwen2.5:7b-instruct 或 ollama/llama3.3。
4) 检查 OpenClaw 对模型的识别状态
设置完成后,立即进行验证。执行:
openclaw models list
若列表中出现你配置的模型,则初步成功。如需获取更详细的状态信息,可运行:
openclaw models status --probe
使用 --probe 参数会主动探测模型端点,返回的实时状态信息更为准确。
5) 将模型正式设为系统默认
确认 openclaw models list 输出中包含 ollama/qwen2.5:7b-instruct 后,执行最终锁定命令:
openclaw models set ollama/qwen2.5:7b-instruct
此命令是 OpenClaw 推荐的另一种模型设置方式,能确保目标模型被确认为全局默认选项。
可选:直接编辑配置文件
你也可以通过编辑 OpenClaw 的配置文件(通常为 config.yaml 或 config.json)来完成设置。结构示例如下:
{
“models”: {
“mode”: “merge”,
“providers”: {
“ollama”: {
“baseUrl”: “http://192.168.2.175:11434”,
“api”: “ollama”,
“apiKey”: “ollama-local”
}
}
},
“agents”: {
“defaults”: {
“model”: {
“primary”: “ollama/qwen2.5:7b-instruct”
}
}
}
}
OpenClaw 配置规范明确定义了 models.providers.ollama 和 agents.defaults.model.primary 这两个核心配置块。
如何验证配置生效
通过以下双重验证确保切换成功:
第一步,在 OpenClaw 服务器上确认 Ollama 模型存在:
curl http://192.168.2.175:11434/api/tags
第二步,在 OpenClaw 内部检查模型状态:
openclaw models list
openclaw models status --probe
当 status 命令显示默认模型已变更为 ollama/qwen2.5:7b-instruct,即表示整个集成与切换流程完成。
快速部署命令序列
为提升效率,你可以直接顺序执行以下命令序列,一次性完成所有配置与验证:
openclaw config set models.providers.ollama.baseUrl "http://192.168.2.175:11434"
openclaw config set models.providers.ollama.api "ollama"
openclaw config set models.providers.ollama.apiKey "ollama-local"
openclaw config set agents.defaults.model.primary "ollama/qwen2.5:7b-instruct"
openclaw models list
openclaw models status --probe