Openclaw接入本地模型API

2026-05-06阅读 0热度 0
ai Agent 大模型 OpenClaw AI应用

1) 在 OpenClaw 宿主机上验证对远程 Ollama 的访问

首先,请在运行 OpenClaw 的服务器终端中执行以下命令:

curl http://192.168.2.175:11434/api/tags

当该命令返回一个 JSON 格式的模型列表时,表明网络路径已打通。GET /api/tags 是 Ollama 提供的标准 API 端点,用于枚举本地已下载的所有模型。


2) 在 OpenClaw 中配置 Ollama 模型提供方

配置的关键在于参数设置顺序。为避免一个已知的 CLI 校验问题,请务必先配置 baseUrl,再设置 apiKey。错误的顺序可能导致配置失败。

请严格按照以下顺序执行命令:

openclaw config set models.providers.ollama.baseUrl "http://192.168.2.175:11434"
openclaw config set models.providers.ollama.api "ollama"
openclaw config set models.providers.ollama.apiKey "ollama-local"

请注意,apiKey 字段在此处仅作为占位符使用(例如“ollama-local”),无需填写真实密钥。这是 OpenClaw 官方集成文档中说明的特定要求。


3) 将默认模型切换至本地模型

完成提供方配置后,指定要使用的具体模型。执行:

openclaw config set agents.defaults.model.primary “ollama/qwen2.5:7b-instruct”

OpenClaw 遵循 provider/model 的命名约定。例如 ollama/qwen2.5:7b-instructollama/llama3.3


4) 检查 OpenClaw 对模型的识别状态

设置完成后,立即进行验证。执行:

openclaw models list

若列表中出现你配置的模型,则初步成功。如需获取更详细的状态信息,可运行:

openclaw models status --probe

使用 --probe 参数会主动探测模型端点,返回的实时状态信息更为准确。


5) 将模型正式设为系统默认

确认 openclaw models list 输出中包含 ollama/qwen2.5:7b-instruct 后,执行最终锁定命令:

openclaw models set ollama/qwen2.5:7b-instruct

此命令是 OpenClaw 推荐的另一种模型设置方式,能确保目标模型被确认为全局默认选项。


可选:直接编辑配置文件

你也可以通过编辑 OpenClaw 的配置文件(通常为 config.yamlconfig.json)来完成设置。结构示例如下:

{ “models”: { “mode”: “merge”, “providers”: { “ollama”: { “baseUrl”: “http://192.168.2.175:11434”, “api”: “ollama”, “apiKey”: “ollama-local” } } }, “agents”: { “defaults”: { “model”: { “primary”: “ollama/qwen2.5:7b-instruct” } } } }

OpenClaw 配置规范明确定义了 models.providers.ollamaagents.defaults.model.primary 这两个核心配置块。


如何验证配置生效

通过以下双重验证确保切换成功:

第一步,在 OpenClaw 服务器上确认 Ollama 模型存在:
curl http://192.168.2.175:11434/api/tags

第二步,在 OpenClaw 内部检查模型状态:
openclaw models list
openclaw models status --probe

status 命令显示默认模型已变更为 ollama/qwen2.5:7b-instruct,即表示整个集成与切换流程完成。


快速部署命令序列

为提升效率,你可以直接顺序执行以下命令序列,一次性完成所有配置与验证:

openclaw config set models.providers.ollama.baseUrl "http://192.168.2.175:11434"
openclaw config set models.providers.ollama.api "ollama"
openclaw config set models.providers.ollama.apiKey "ollama-local"
openclaw config set agents.defaults.model.primary "ollama/qwen2.5:7b-instruct"
openclaw models list
openclaw models status --probe

免责声明

本网站新闻资讯均来自公开渠道,力求准确但不保证绝对无误,内容观点仅代表作者本人,与本站无关。若涉及侵权,请联系我们处理。本站保留对声明的修改权,最终解释权归本站所有。

相关阅读

更多
欢迎回来 登录或注册后,可保存提示词和历史记录
登录后可同步收藏、历史记录和常用模板
注册即表示同意服务条款与隐私政策