配置 OpenClaw 使用 Ollama 本地模型

2026-05-05阅读 0热度 0
大模型 OpenClaw Ollama

前提条件

在开始配置之前,你得确保Ollama服务已经安装并正常运行,而且模型qwen3-vl:2b已经顺利下载到本地。

配置步骤

接下来需要修改OpenClaw的配置文件,把Ollama指定为模型提供商,同时设置好默认使用的模型。这事儿其实不复杂,跟着步骤走就行。

验证配置

配置完成后,最好通过TUI界面进行一次实际的对话测试。这能帮你确认模型是否真的在正常工作,避免后续使用时出现意外。

高级配置

如果基础配置满足不了你的需求,还可以根据实际情况添加更多模型,或者调整像contextWindowmaxTokens这样的参数。灵活配置能让工具更好地为你服务。

注意事项

这里有几个关键点需要特别留意:首先,Ollama服务地址必须与配置中的baseUrl保持一致;其次,模型ID一定要与Ollama中的实际模型名称完全匹配;另外,如果模型支持多模态功能,记得在input字段中添加"image"等相应的类型。

现在,打开~/.openclaw/openclaw.json文件,添加或修改以下配置内容:

{
  "agents": {
    "defaults": {
      "models": {
        "ollama": {}
      },
      "model": {
        "primary": "ollama/qwen3-vl:2b"
      }
    }
  },
  "models": {
    "providers": {
      "ollama": {
        "baseUrl": "http://127.0.0.1:11434/v1",
        "apiKey": "ollama-local",
        "api": "openai-completions",
        "models": [
          {
            "id": "qwen3-vl:2b",
            "name": "Qwen3 VL 2B",
            "reasoning": false,
            "input": ["text"],
            "cost": {
              "input": 0,
              "output": 0,
              "cacheRead": 0,
              "cacheWrite": 0
            },
            "contextWindow": 128000,
            "maxTokens": 8192
          }
        ]
      }
    }
  }
}

重启 OpenClaw 网关服务

配置完成后,别忘了重启网关服务让更改生效。执行下面这个命令就行:

openclaw gateway restart

测试对话功能

最后一步,用OpenClaw的TUI界面测试一下对话功能是否正常:

openclaw tui
免责声明

本网站新闻资讯均来自公开渠道,力求准确但不保证绝对无误,内容观点仅代表作者本人,与本站无关。若涉及侵权,请联系我们处理。本站保留对声明的修改权,最终解释权归本站所有。

相关阅读

更多
欢迎回来 登录或注册后,可保存提示词和历史记录
登录后可同步收藏、历史记录和常用模板
注册即表示同意服务条款与隐私政策