如何使用Ollama集成OpenClaw

2026-05-06阅读 0热度 0
人工智能

在 Ollama 中安装并集成 OpenClaw:零成本本地部署指南

想在本地免费跑大模型,同时拥有一个清爽好用的对话界面?把 OpenClaw 和 Ollama 结合起来,是个非常高效的选择。核心流程其实很清晰:先部署 OpenClaw 这个前端应用,再通过 Ollama 拉取并管理本地模型,最后将两者“打通”。下面,咱们就一步步来操作。

一、安装 OpenClaw(这是第一步,也是必做项)

1. 系统要求

动手之前,先核对一下你的设备环境:

Windows用户:最省心的方式是使用 WSL2,当然原生 Windows 10 及以上版本也可以。
macOS用户:需要 macOS 10.15 或更高版本。
Linux用户:主流的发行版如 Ubuntu 等基本都支持。
另外,无论哪个系统,都需要提前安装好 Node.js(版本 ≥ 22)

2. 一键安装命令

最快捷的方式是使用官方提供的一键脚本:

对于 macOS 或 Linux 系统,打开终端,执行:

curl -fsSL https://openclaw.ai/install.sh | bash

对于 Windows 系统(在 WSL2 或 PowerShell 中),可以运行:

iwr -useb https://openclaw.ai/install.ps1 | iex

当然,如果你习惯用 npm,也可以选择全局安装:

npm install -g openclaw@latest

3. 验证安装

安装完成后,怎么确认是否成功呢?很简单,在命令行里输入:

openclaw --version
# 如果能正常输出版本号,那就恭喜你,第一步搞定!

二、安装 Ollama(本地模型引擎)

OpenClaw 是个出色的“外壳”,但它本身不提供模型能力。这时就需要 Ollama 登场了,它负责在本地拉取、管理和运行开源大模型。

1. 安装 Ollama

Ollama 的安装同样提供了一键脚本:

macOS / Linux 用户在终端运行:

curl -fsSL https://ollama.com/install.sh | sh

Windows 用户更简单,直接去官网下载安装包,双击运行即可。

2. 验证 Ollama

安装后,别忘了验证一下:

ollama --version

3. 拉取适配模型(推荐)

Ollama 安装好之后,仓库里还是空的,需要你手动拉取想要的模型。这里可以根据自己的硬件条件来选:

# 轻量通用选择(7B参数,适合大多数普通电脑)
ollama pull qwen2.5:7b

# 如果硬件给力(比如显存 ≥ 8G),可以尝试更大模型
ollama pull qwen3:14b

三、Ollama 对接 OpenClaw(两种方式,任选其一)

这是最关键的一步,让前端界面和后台模型引擎连接起来。

方式一:Ollama 一键启动(推荐给怕麻烦的朋友)

Ollama 贴心地提供了一个集成命令:

ollama launch openclaw

运行后,跟着向导提示操作,选择 Ollama 作为模型提供商,它就会自动帮你完成配置对接,非常省心。

方式二:手动修改配置文件(适合喜欢掌控一切的极客)

如果你更倾向于手动配置,可以按以下步骤操作:

首先,找到配置文件
Windows 系统通常在:C:\Users\你的用户名\.openclaw\openclaw.json
macOS / Linux 系统则在:~/.openclaw/openclaw.json

然后,添加 Ollama 配置
在配置文件的合适位置(通常是 models 字段下),添加如下配置段:

{
  "models": {
    "ollama": {
      "baseUrl": "http://localhost:11434",
      "models": [{
        "id": "qwen2.5:7b",
        "name": "本地通义千问7B",
        "contextWindow": 8192,
        "maxTokens": 4096
      }]
    }
  }
}

最后,重启 OpenClaw 服务
配置修改后,需要重启服务使其生效:

openclaw restart

四、启动与使用

完成所有配置后,就可以启动体验了。

# 启动 OpenClaw 服务
openclaw start

# 访问 Web 面板
# 用浏览器打开:http://localhost:3000

在浏览器中打开管理界面,登录后,记得在模型选择的下拉菜单中,切换成你刚刚配置好的 Ollama 本地模型(比如“本地通义千问7B”)。至此,一个完全免费、可离线运行的大模型对话环境就搭建完成了。

常见问题

遇到问题先别急,以下几个点是高频踩坑区:

端口占用:如果 3000 端口被占用,可以修改 openclaw.json 配置文件中的 port 字段,换成 3001 等其他未被占用的端口。
模型拉取慢:从海外拉取模型文件速度可能不理想,可以考虑更换国内镜像源,或者寻找手动下载模型文件的路径。
运行卡顿:模型运行吃硬件。建议内存不小于 16G,显存不小于 4G。如果硬件有限,务必优先选择 qwen2.5:7b 这类轻量级模型,体验会更流畅。

希望这份指南能帮你顺利搭建起专属的本地 AI 助手。

免责声明

本网站新闻资讯均来自公开渠道,力求准确但不保证绝对无误,内容观点仅代表作者本人,与本站无关。若涉及侵权,请联系我们处理。本站保留对声明的修改权,最终解释权归本站所有。

相关阅读

更多
欢迎回来 登录或注册后,可保存提示词和历史记录
登录后可同步收藏、历史记录和常用模板
注册即表示同意服务条款与隐私政策