OpenClaw 完整部署教程(Windows + Ollama)

2026-05-06阅读 0热度 0
windows OpenClaw Ollama

???? OpenClaw 完整部署教程(Windows + Ollama)

想在Windows上快速搭建一个能调用本地工具、具备自动化能力的AI助手吗?OpenClaw配合Ollama是个绝佳选择。这篇教程将手把手带你走通整个流程,避开那些常见的“坑”。

???? 前置条件

开始之前,请确保你的环境满足以下几点:

  • 操作系统:Windows 10 或 11。
  • Ollama:已经安装并能正常运行,无论是本地还是远程。
  • Node.js:建议安装,某些功能会用到它。
  • PowerShell:Windows系统自带,我们主要用它来执行命令。

???? 第一步:安装 OpenClaw

首先,我们需要把OpenClaw这个“大脑”装到系统里。操作很简单:

管理员身份打开PowerShell,然后运行以下命令进行全局安装:

npm install -g openclaw

安装完成后,不妨验证一下,看看版本号是否正确显示:

openclaw --version

???? 第二步:准备 Ollama

接下来,我们要确保Ollama这个“模型引擎”已经就绪。

1. 启动 Ollama

在PowerShell中运行以下命令,确保Ollama服务正在后台运行:

ollama serve

2. 拉取模型

我们需要一个模型来驱动AI。这里以轻量级的 `qwen2.5:0.5b` 模型为例:

ollama pull qwen2.5:0.5b

3. 验证 Ollama 可用

拉取完成后,检查一下模型是否在列表中:

ollama list

如果一切正常,你应该能看到类似下面的输出:

NAME                ID              SIZE    MODIFIED
qwen2.5:0.5b        xxxxxxxx        637MB   2 days ago

第三步:配置 OpenClaw(关键步骤)

这是整个部署的核心环节,配置对了,后面就一帆风顺。

1. 初始化配置

运行初始化向导,它会引导你完成基础设置:

openclaw onboard

跟着提示一步步走,大部分选项保持默认即可。

2. 手动编辑配置文件

向导完成后,为了确保配置精准,我们最好手动核对一下关键配置。用记事本打开配置文件:

notepad C:\Users\你的用户名\.openclaw\openclaw.json

你需要重点关注配置文件中与Ollama连接相关的部分。一个典型的配置示例如下:

{
  "meta": { ... },
  "wizard": { ... },
  "models": {
    "providers": {
      "ollama": {
        "baseUrl": "http://127.0.0.1:11434",
        "apiKey": "ollama-local",
        "api": "ollama",
        "models": []
      }
    }
  },
  "agents": {
    "defaults": {
      "model": "ollama/qwen2.5:0.5b",
      "workspace": "C:\\Users\\你的用户名\\.openclaw\\workspace"
    }
  },
  ... // 其他配置节
}

???? 关键配置说明

为了让工具调用正常工作,以下几个字段必须配置正确:

字段说明
baseUrlhttp://127.0.0.1:11434切记不要加 /v1,这里要使用Ollama的原生API地址。
apiKeyollama-local连接本地Ollama的固定值。
apiollama明确指定使用Ollama的原生工具调用接口。
modelollama/qwen2.5:0.5bagents.defaults 中指定默认使用的模型。

⚠️ 重要提示

这里有个容易混淆的点:当你显式配置了模型后,OpenClaw会禁用自动发现功能。这意味着:

  • ✅ 正确做法1:如果你已经在 agents.defaults.model 里指定了模型(如上例),那么 models.providers.ollama.models 这个数组可以留空
  • ✅ 正确做法2:如果你希望 openclaw models list 命令能列出所有可用模型,就需要在这个数组里手动添加模型定义。

???? 第四步:启动网关

配置保存好后,重启网关服务使配置生效:

openclaw gateway restart

然后,检查一下网关的运行状态:

openclaw gateway status

如果启动成功,你会看到类似这样的输出:

Gateway running on ws://127.0.0.1:18789

✅ 第五步:验证配置

启动后,我们得确认一切是否按预期工作。

1. 检查模型加载

运行以下命令,查看模型是否被正确识别和加载:

openclaw models list

预期的输出应该包含你的模型,并且“Local Auth”显示为“yes”:

Model                     Input Ctx  Local Auth Tags
ollama/qwen2.5:0.5b       text  32k  yes    yes   default

2. 运行健康检查

让系统自己做个全面体检:

openclaw doctor

检查结果通常会显示: - ✅ 模型已加载 - ✅ Ollama 连接成功 - ⚠️ 一些关于 Memory 或 API keys 的警告(这些通常与核心的工具调用功能无关,可以暂时忽略)


???? 第六步:测试工具调用功能

激动人心的时刻到了,我们来测试AI是否真的能“动手”干活。

方法 1:使用 TUI 交互模式(推荐)

这是最直观的测试方式。打开终端用户界面:

openclaw tui

在打开的TUI界面中,直接输入一个计算问题:

请帮我计算 12345 + 67890 等于多少?

✅ 成功标志:AI直接返回计算结果 80235
❌ 失败标志:如果输出的是原始的JSON代码(如 {"tool_call": ...}),说明工具调用没生效。

方法 2:使用 agent 命令

你也可以直接在命令行中测试:

openclaw agent --message "请计算 25 * 37 的结果"

方法 3:测试计算器工具

试试更复杂的计算,比如保留小数:

openclaw agent --message "请帮我计算 100 / 7,保留两位小数"

方法 4:使用Web UI交互

如果你更喜欢图形界面,可以启动仪表盘:

openclaw dashboard

???? 常见问题排查

如果测试不顺利,别急,以下是几个常见问题及解决方法。

问题 1:模型未加载

# 错误提示:No models found

解决:检查配置文件中的 baseUrl 是否正确,并确认Ollama服务(ollama serve)正在运行。

问题 2:工具调用输出 JSON 而非结果

# 错误输出:{"tool_calls": [{"name": "calculator", ...}]}

原因:这通常是因为错误地使用了OpenAI兼容模式(即在 baseUrl 后加了 /v1 后缀)。
解决:确保配置文件中 baseUrlhttp://127.0.0.1:11434,而不是 http://127.0.0.1:11434/v1

问题 3:连接被拒绝

# 错误:ECONNREFUSED

解决
1. 检查Ollama是否真的在运行:ollama list
2. 尝试重启Ollama服务:ollama serve

问题 4:Dashboard 无法访问

原因:网关可能未完全启动,或者默认端口(18789)被其他程序占用。
解决
1. 强制重启网关:openclaw gateway --force
2. 或者,更换一个端口:

openclaw config set gateway.port 18790
openclaw gateway restart

???? 完整测试流程

为了确保万无一失,你可以按顺序执行下面这一套“组合拳”命令,完成端到端的验证:

# 1. 启动 Ollama
ollama serve

# 2. 重启 OpenClaw 网关
openclaw gateway restart

# 3. 验证模型
openclaw models list

# 4. 运行健康检查
openclaw doctor

# 5. 测试工具调用
openclaw tui
# 在 TUI 中输入:计算 12345 + 67890

# 6. 退出 TUI
# 按 Ctrl+C 或输入 /quit

???? 预期结果

如果每一步都配置正确,你应该会看到如下结果:

步骤预期输出
ollama list显示 qwen2.5:0.5b 模型。
openclaw models list显示 ollama/qwen2.5:0.5b,且 Local Auth 为 yes。
openclaw doctor显示模型已加载,没有连接错误。
工具调用测试AI直接返回计算结果,而不是JSON代码。

???? 恭喜!

如果所有测试都通过了,那么恭喜你,你已经成功完成了以下目标:

  • ✅ 成功部署 OpenClaw 智能体框架。
  • ✅ 正确配置了 Ollama 原生 API(避开了OpenAI兼容模式的坑)。
  • ✅ 启用了强大的工具调用功能。
  • ✅ 可以正常使用计算器等工具进行自动化任务。

现在,你可以尽情探索OpenClaw的更多自动化功能了!????


???? 进阶配置

基础功能搞定后,你可以尝试以下进阶设置。

添加更多模型

如果你想使用多个模型,可以在配置文件的 models 数组中手动添加:

"models": {
  "providers": {
    "ollama": {
      "baseUrl": "http://127.0.0.1:11434",
      "apiKey": "ollama-local",
      "api": "ollama",
      "models": [
        {"name": "qwen2.5:0.5b"},
        {"name": "llama3:8b"},
        {"name": "mistral:7b"}
      ]
    }
  }
}

连接远程 Ollama

如果你的Ollama运行在局域网的另一台机器上,只需修改 baseUrl

"baseUrl": "http://192.168.1.100:11434"

启用详细日志

遇到疑难杂症时,开启Debug日志能帮你看清每一步发生了什么:

openclaw --log-level debug

还是遇到了问题? 别担心,按这个清单再检查一遍:

  1. Ollama 是否在运行? 执行:ollama list
  2. 配置文件路径对吗? 核对:C:\Users\你的用户名\.openclaw\openclaw.json
  3. 网关启动了吗? 检查:openclaw gateway status
  4. 查看详细日志: 运行:openclaw logs

祝你使用愉快!????

免责声明

本网站新闻资讯均来自公开渠道,力求准确但不保证绝对无误,内容观点仅代表作者本人,与本站无关。若涉及侵权,请联系我们处理。本站保留对声明的修改权,最终解释权归本站所有。

相关阅读

更多
欢迎回来 登录或注册后,可保存提示词和历史记录
登录后可同步收藏、历史记录和常用模板
注册即表示同意服务条款与隐私政策