【Openclaw】零基础搭建本地AI助手:用OpenClaw + Ollama,告别网络限制

2026-05-05阅读 0热度 0
人工智能 OpenClaw Ollama

摘要: 你是否曾因AI服务繁忙、网络延迟或数据隐私问题而感到困扰?本文将带你一步步完成,如何利用 OpenClaw 和 Ollama 这两款强大工具,在自己的电脑上搭建一个完全私有、随时可用的AI助手。我们将逐步完成环境准备、软件安装、模型部署和系统集成,最终让你体验到流畅、安全的本地化AI服务。

关键词: OpenClaw, Ollama, 本地AI, 大语言模型, AI助手, 本地部署


引言:为什么要搭建本地AI?

人工智能助手如今已经成了我们日常工作的得力伙伴,从回答问题到编写代码、撰写文档,处处都有它的身影。不过,在享受便利的同时,相信不少人也遇到过这样那样的麻烦:

网络限制与拥堵:一到使用高峰期,公共AI服务动不动就弹出“繁忙”提示,除了干等别无他法。
数据隐私担忧:将涉及公司项目或个人的敏感信息上传到云端?这背后的数据安全风险让人心里没底。
高昂的成本:高频次使用产生的API调用费用,长期累积下来也是一笔不小的开销。

为了解决这些痛点,“本地AI”的概念应运而生。简单说,就是把AI模型直接装在你自己的电脑或服务器上运行。这么做的好处显而易见:

断网可用:无需依赖互联网,随时随地都能召唤你的AI助手。
极致隐私:所有数据都在本地处理,信息不出家门,安全感拉满。
成本低廉:一次性的硬件投入之后,除了电费几乎没有后续花费。
响应迅速:彻底告别网络延迟,交互体验如行云流水般顺畅。

接下来,我们将通过 Ollama 来轻松管理和运行本地模型,再借助 OpenClaw 的丰富功能,把它打造成一个专业级的智能助手。让我们开始吧。


第一步:准备工作——软硬件要求

在着手搭建之前,先来看看你的电脑是否已经准备就绪。以下是需要满足的基本条件:

操作系统:Windows 10/11 (64位), macOS, 或 Linux 发行版均可。
处理器 (CPU):推荐使用性能较强的现代多核处理器。
内存 (RAM):这是关键。至少需要16GB,如果想运行更大的模型(比如参数量7B以上的),强烈建议升级到32GB或更多。
显卡 (GPU) :虽然这不是硬性要求,但有一块NVIDIA独立显卡会让体验有质的飞跃。Ollama会自动调用GPU进行加速。使用集成显卡也能跑,只是速度上会慢很多。
存储空间:至少预留10GB以上的可用空间,用于下载和存放体积庞大的模型文件。


第二步:安装核心工具——Ollama

Ollama堪称本地模型部署的“神器”,它极大地简化了大语言模型的运行过程。你可以把它理解为模型的“应用商店”兼“发动机”,一站式解决下载、管理和运行的问题。

下载 Ollama:

打开浏览器,访问 Ollama 的官方网站:https://ollama.com/
在首页找到醒目的“Download”按钮,根据你的操作系统(Windows, macOS, Linux)选择对应的安装包进行下载。

安装 Ollama:

对于Windows或macOS用户,操作非常直观:直接双击下载好的 .exe.pkg 文件,跟着安装向导的提示一步步完成即可。
Linux用户通常会获得一条命令行安装指令,复制它,粘贴到终端里执行就行了。

启动 Ollama:

安装完成后,需要确保Ollama服务已经运行起来。
在Windows系统上,你可以在系统托盘(右下角)找到一个Ollama的图标,这表明它正在后台运行。
对于macOS或Linux,你可能需要保持一个终端窗口处于打开状态,或者将其配置为后台服务自动启动。

好了,到这一步,Ollama已经成功在你的电脑上安家落户,随时可以加载模型了。


第三步:选择并下载你的AI模型

Ollama支持众多主流的大语言模型。在本地部署时,我们的目标是在模型性能和硬件开销之间找到最佳平衡点。目前,Qwen3(通义千问)系列的中文模型因其出色的表现和适中的资源占用,成为了一个非常热门的选择。

打开命令行工具:

Windows用户:按下 Win + R 组合键,输入 cmd 后回车,打开“命令提示符”。使用“PowerShell”也是可以的。
macOS或Linux用户:直接打开系统自带的“终端”应用程序。

下载模型:

在打开的命令行窗口中,输入以下命令并回车:

ollama run qwen3.5:0.8b

需要提醒的是,模型文件体积通常不小(从几GB到几十GB不等),下载过程可能会花费一些时间,这取决于你的网络速度和硬盘性能。请耐心等待命令行提示下载完成。

验证模型:

下载完成后,可以通过以下命令查看已安装的模型列表,确认 qwen3.5:0.8b 是否已在其中:

ollama list

第四步:安装与配置 OpenClaw

OpenClaw 是一个功能强大的AI代理框架。它能够将你本地的语言模型“包装”成一个多才多艺的智能助手,提供诸如聊天交互、自动化任务处理等多种使用方式。

安装 OpenClaw:

具体的安装步骤,可以参考这篇详尽的教程:《【OpenClaw与Molili】保姆级教程:教你在windows上安装OpenClaw与Molili-CSDN博客》。

定位配置文件:

OpenClaw 的核心配置通常存储在一个名为 openclaw.json 的文件里。这个文件默认位于用户目录下的隐藏文件夹中:

  • Windows系统:路径一般为 C:\Users\[你的用户名]\.openclaw\openclaw.json
  • macOS系统:路径一般为 ~/.openclaw/openclaw.json

重要提示: 你需要找到并编辑这个文件。在文件管理器中,可能需要先启用“显示隐藏文件”选项,才能看到 .openclaw 这个文件夹。

编辑配置文件,接入 Ollama:

使用任意文本编辑器(如记事本、VS Code、Sublime Text等)打开 openclaw.json 文件。接下来,我们要修改它,告诉 OpenClaw 去连接并使用刚才通过 Ollama 加载的本地 qwen3 模型。

在配置文件中,找到 models.providers 这个部分。你需要在这里添加一个指向 ollama 的提供者配置。

原始配置文件(可能与此类似,但缺少 ollama 提供者):

{
  "models": {
    "providers": {
      // 可能有其他提供者配置,如 openai, azure 等
    }
  },
  "agents": {
    "defaults": {
      "model": {
        "primary": "..." // 这里指定了主模型
      }
    }
  }
}

修改后的配置文件(添加 ollama 提供者并设为主模型):

{
  "meta": {
    "lastTouchedVersion": "2026.3.2",
    "lastTouchedAt": "2026-03-05T01:50:42.331Z"
  },
  "wizard": {
    "lastRunAt": "2026-03-04T10:05:45.591Z",
    "lastRunVersion": "2026.3.2",
    "lastRunCommand": "onboard",
    "lastRunMode": "local"
  },
  "models": {
    "providers": {
      "ollama": {
        "baseUrl": "http://127.0.0.1:11434/v1",
        "apiKey": "sk-La1F6uiHWTR6S5FNxNUEwdeWJINw4Y4M", # 随意填写,毕竟本地化
        "auth": "api-key",
        "api": "openai-completions",
        "authHeader": true,
        "models": [
          {
            "id": "qwen3.5:0.8b",
            "name": "qwen3.5:0.8b",
            "api": "openai-completions",
            "reasoning": false,
            "input": [
              "text"
            ],
            "cost": {
              "input": 0,
              "output": 0,
              "cacheRead": 0,
              "cacheWrite": 0
            },
            "contextWindow": 60000,
            "maxTokens": 60000
          }
        ]
      }
    },
    "bedrockDiscovery": {
      "defaultContextWindow": 1
    }
  },
  "agents": {
    "defaults": {
      "model": {
        "primary": "ollama/qwen3.5:0.8b"
      },
      "models": {
        "qwen-portal/coder-model": {
          "alias": "qwen"
        },
        "ollama/qwen3.5:0.8b": {
          "alias": "qwen3.5:0.8b"
        },
        "qwen-portal/vision-model": {}
      },
      "workspace": "C:\\Users\\Administrator\\.openclaw\\workspace"
    }
  },
  "tools": {
    "profile": "messaging"
  },
  "commands": {
    "native": "auto",
    "nativeSkills": "auto",
    "restart": true,
    "ownerDisplay": "raw"
  },
  "session": {
    "dmScope": "per-channel-peer"
  },
  "hooks": {
    "internal": {
      "enabled": true,
      "entries": {
        "session-memory": {
          "enabled": true
        }
      }
    }
  },
  "gateway": {
    "port": 18789,
    "mode": "local",
    "bind": "loopback",
    "auth": {
      "mode": "token",
      "token": "76c38470534edf3c625d4aa0bfdb02730c491a90f16c7053"
    },
    "tailscale": {
      "mode": "off",
      "resetOnExit": false
    },
    "nodes": {
      "denyCommands": [
        "camera.snap",
        "camera.clip",
        "screen.record",
        "contacts.add",
        "calendar.add",
        "reminders.add",
        "sms.send"
      ]
    }
  },
  "plugins": {
    "entries": {
      "qwen-portal-auth": {
        "enabled": true
      }
    }
  }
}

关键点解释:

"baseUrl": "http://127.0.0.1:11434/v1":这里的 127.0.0.1 代表本机,11434 是 Ollama 服务的默认端口。OpenClaw 将通过这个地址与 Ollama 通信。
"id": "qwen3.5:0.8b":这个ID必须和你用 ollama pull 命令下载的模型名称完全一致。
"primary": "ollama/qwen3.5:0.8b":这个路径设置指明了 OpenClaw 在需要AI服务时,将优先使用 ollama 提供者下的 qwen3.5:0.8b 模型。

保存配置文件: 完成所有编辑后,记得保存 openclaw.json 文件。


第五步:启动你的本地AI助手

所有准备工作都已到位,现在是启动体验的时刻了。

确保 Ollama 正在运行: 最后检查一下系统托盘或后台进程,确认 ollama 服务处于活跃状态。

启动 OpenClaw Gateway:

再次打开命令行工具(cmd 或 PowerShell)。
输入以下命令并回车:

openclaw gateway

命令行窗口将会显示 OpenClaw 启动的日志信息。如果一切配置正确,它会成功连接到 Ollama,并加载你指定的 qwen3.5:0.8b 模型。

开始使用:

OpenClaw 启动后,通常会提供一个本地的网页访问地址(例如 http://127.0.0.1:18789/)。
打开你的浏览器,输入这个地址,你将看到一个清晰的聊天界面。
现在,你就可以与运行在自己电脑上的 Qwen3 模型进行顺畅对话了。所有的思考和计算都在本地完成,既没有网络延迟的烦恼,也彻底告别了数据隐私的担忧。尽情享受这专属于你的、高效安全的智能助手吧。

免责声明

本网站新闻资讯均来自公开渠道,力求准确但不保证绝对无误,内容观点仅代表作者本人,与本站无关。若涉及侵权,请联系我们处理。本站保留对声明的修改权,最终解释权归本站所有。

相关阅读

更多
欢迎回来 登录或注册后,可保存提示词和历史记录
登录后可同步收藏、历史记录和常用模板
注册即表示同意服务条款与隐私政策