【Openclaw】零基础搭建本地AI助手:用OpenClaw + Ollama,告别网络限制
摘要: 你是否曾因AI服务繁忙、网络延迟或数据隐私问题而感到困扰?本文将带你一步步完成,如何利用 OpenClaw 和 Ollama 这两款强大工具,在自己的电脑上搭建一个完全私有、随时可用的AI助手。我们将逐步完成环境准备、软件安装、模型部署和系统集成,最终让你体验到流畅、安全的本地化AI服务。
关键词: OpenClaw, Ollama, 本地AI, 大语言模型, AI助手, 本地部署
引言:为什么要搭建本地AI?
人工智能助手如今已经成了我们日常工作的得力伙伴,从回答问题到编写代码、撰写文档,处处都有它的身影。不过,在享受便利的同时,相信不少人也遇到过这样那样的麻烦:
网络限制与拥堵:一到使用高峰期,公共AI服务动不动就弹出“繁忙”提示,除了干等别无他法。
数据隐私担忧:将涉及公司项目或个人的敏感信息上传到云端?这背后的数据安全风险让人心里没底。
高昂的成本:高频次使用产生的API调用费用,长期累积下来也是一笔不小的开销。
为了解决这些痛点,“本地AI”的概念应运而生。简单说,就是把AI模型直接装在你自己的电脑或服务器上运行。这么做的好处显而易见:
断网可用:无需依赖互联网,随时随地都能召唤你的AI助手。
极致隐私:所有数据都在本地处理,信息不出家门,安全感拉满。
成本低廉:一次性的硬件投入之后,除了电费几乎没有后续花费。
响应迅速:彻底告别网络延迟,交互体验如行云流水般顺畅。
接下来,我们将通过 Ollama 来轻松管理和运行本地模型,再借助 OpenClaw 的丰富功能,把它打造成一个专业级的智能助手。让我们开始吧。
第一步:准备工作——软硬件要求
在着手搭建之前,先来看看你的电脑是否已经准备就绪。以下是需要满足的基本条件:
操作系统:Windows 10/11 (64位), macOS, 或 Linux 发行版均可。
处理器 (CPU):推荐使用性能较强的现代多核处理器。
内存 (RAM):这是关键。至少需要16GB,如果想运行更大的模型(比如参数量7B以上的),强烈建议升级到32GB或更多。
显卡 (GPU) :虽然这不是硬性要求,但有一块NVIDIA独立显卡会让体验有质的飞跃。Ollama会自动调用GPU进行加速。使用集成显卡也能跑,只是速度上会慢很多。
存储空间:至少预留10GB以上的可用空间,用于下载和存放体积庞大的模型文件。
第二步:安装核心工具——Ollama
Ollama堪称本地模型部署的“神器”,它极大地简化了大语言模型的运行过程。你可以把它理解为模型的“应用商店”兼“发动机”,一站式解决下载、管理和运行的问题。
下载 Ollama:
打开浏览器,访问 Ollama 的官方网站:https://ollama.com/
在首页找到醒目的“Download”按钮,根据你的操作系统(Windows, macOS, Linux)选择对应的安装包进行下载。
安装 Ollama:
对于Windows或macOS用户,操作非常直观:直接双击下载好的 .exe 或 .pkg 文件,跟着安装向导的提示一步步完成即可。
Linux用户通常会获得一条命令行安装指令,复制它,粘贴到终端里执行就行了。
启动 Ollama:
安装完成后,需要确保Ollama服务已经运行起来。
在Windows系统上,你可以在系统托盘(右下角)找到一个Ollama的图标,这表明它正在后台运行。
对于macOS或Linux,你可能需要保持一个终端窗口处于打开状态,或者将其配置为后台服务自动启动。
好了,到这一步,Ollama已经成功在你的电脑上安家落户,随时可以加载模型了。
第三步:选择并下载你的AI模型
Ollama支持众多主流的大语言模型。在本地部署时,我们的目标是在模型性能和硬件开销之间找到最佳平衡点。目前,Qwen3(通义千问)系列的中文模型因其出色的表现和适中的资源占用,成为了一个非常热门的选择。
打开命令行工具:
Windows用户:按下 Win + R 组合键,输入 cmd 后回车,打开“命令提示符”。使用“PowerShell”也是可以的。
macOS或Linux用户:直接打开系统自带的“终端”应用程序。
下载模型:
在打开的命令行窗口中,输入以下命令并回车:
ollama run qwen3.5:0.8b
需要提醒的是,模型文件体积通常不小(从几GB到几十GB不等),下载过程可能会花费一些时间,这取决于你的网络速度和硬盘性能。请耐心等待命令行提示下载完成。
验证模型:
下载完成后,可以通过以下命令查看已安装的模型列表,确认 qwen3.5:0.8b 是否已在其中:
ollama list
第四步:安装与配置 OpenClaw
OpenClaw 是一个功能强大的AI代理框架。它能够将你本地的语言模型“包装”成一个多才多艺的智能助手,提供诸如聊天交互、自动化任务处理等多种使用方式。
安装 OpenClaw:
具体的安装步骤,可以参考这篇详尽的教程:《【OpenClaw与Molili】保姆级教程:教你在windows上安装OpenClaw与Molili-CSDN博客》。
定位配置文件:
OpenClaw 的核心配置通常存储在一个名为 openclaw.json 的文件里。这个文件默认位于用户目录下的隐藏文件夹中:
- Windows系统:路径一般为
C:\Users\[你的用户名]\.openclaw\openclaw.json - macOS系统:路径一般为
~/.openclaw/openclaw.json
重要提示: 你需要找到并编辑这个文件。在文件管理器中,可能需要先启用“显示隐藏文件”选项,才能看到 .openclaw 这个文件夹。
编辑配置文件,接入 Ollama:
使用任意文本编辑器(如记事本、VS Code、Sublime Text等)打开 openclaw.json 文件。接下来,我们要修改它,告诉 OpenClaw 去连接并使用刚才通过 Ollama 加载的本地 qwen3 模型。
在配置文件中,找到 models.providers 这个部分。你需要在这里添加一个指向 ollama 的提供者配置。
原始配置文件(可能与此类似,但缺少 ollama 提供者):
{
"models": {
"providers": {
// 可能有其他提供者配置,如 openai, azure 等
}
},
"agents": {
"defaults": {
"model": {
"primary": "..." // 这里指定了主模型
}
}
}
}
修改后的配置文件(添加 ollama 提供者并设为主模型):
{
"meta": {
"lastTouchedVersion": "2026.3.2",
"lastTouchedAt": "2026-03-05T01:50:42.331Z"
},
"wizard": {
"lastRunAt": "2026-03-04T10:05:45.591Z",
"lastRunVersion": "2026.3.2",
"lastRunCommand": "onboard",
"lastRunMode": "local"
},
"models": {
"providers": {
"ollama": {
"baseUrl": "http://127.0.0.1:11434/v1",
"apiKey": "sk-La1F6uiHWTR6S5FNxNUEwdeWJINw4Y4M", # 随意填写,毕竟本地化
"auth": "api-key",
"api": "openai-completions",
"authHeader": true,
"models": [
{
"id": "qwen3.5:0.8b",
"name": "qwen3.5:0.8b",
"api": "openai-completions",
"reasoning": false,
"input": [
"text"
],
"cost": {
"input": 0,
"output": 0,
"cacheRead": 0,
"cacheWrite": 0
},
"contextWindow": 60000,
"maxTokens": 60000
}
]
}
},
"bedrockDiscovery": {
"defaultContextWindow": 1
}
},
"agents": {
"defaults": {
"model": {
"primary": "ollama/qwen3.5:0.8b"
},
"models": {
"qwen-portal/coder-model": {
"alias": "qwen"
},
"ollama/qwen3.5:0.8b": {
"alias": "qwen3.5:0.8b"
},
"qwen-portal/vision-model": {}
},
"workspace": "C:\\Users\\Administrator\\.openclaw\\workspace"
}
},
"tools": {
"profile": "messaging"
},
"commands": {
"native": "auto",
"nativeSkills": "auto",
"restart": true,
"ownerDisplay": "raw"
},
"session": {
"dmScope": "per-channel-peer"
},
"hooks": {
"internal": {
"enabled": true,
"entries": {
"session-memory": {
"enabled": true
}
}
}
},
"gateway": {
"port": 18789,
"mode": "local",
"bind": "loopback",
"auth": {
"mode": "token",
"token": "76c38470534edf3c625d4aa0bfdb02730c491a90f16c7053"
},
"tailscale": {
"mode": "off",
"resetOnExit": false
},
"nodes": {
"denyCommands": [
"camera.snap",
"camera.clip",
"screen.record",
"contacts.add",
"calendar.add",
"reminders.add",
"sms.send"
]
}
},
"plugins": {
"entries": {
"qwen-portal-auth": {
"enabled": true
}
}
}
}
关键点解释:
"baseUrl": "http://127.0.0.1:11434/v1":这里的 127.0.0.1 代表本机,11434 是 Ollama 服务的默认端口。OpenClaw 将通过这个地址与 Ollama 通信。"id": "qwen3.5:0.8b":这个ID必须和你用 ollama pull 命令下载的模型名称完全一致。"primary": "ollama/qwen3.5:0.8b":这个路径设置指明了 OpenClaw 在需要AI服务时,将优先使用 ollama 提供者下的 qwen3.5:0.8b 模型。
保存配置文件: 完成所有编辑后,记得保存 openclaw.json 文件。
第五步:启动你的本地AI助手
所有准备工作都已到位,现在是启动体验的时刻了。
确保 Ollama 正在运行: 最后检查一下系统托盘或后台进程,确认 ollama 服务处于活跃状态。
启动 OpenClaw Gateway:
再次打开命令行工具(cmd 或 PowerShell)。
输入以下命令并回车:
openclaw gateway
命令行窗口将会显示 OpenClaw 启动的日志信息。如果一切配置正确,它会成功连接到 Ollama,并加载你指定的 qwen3.5:0.8b 模型。
开始使用:
OpenClaw 启动后,通常会提供一个本地的网页访问地址(例如 http://127.0.0.1:18789/)。
打开你的浏览器,输入这个地址,你将看到一个清晰的聊天界面。
现在,你就可以与运行在自己电脑上的 Qwen3 模型进行顺畅对话了。所有的思考和计算都在本地完成,既没有网络延迟的烦恼,也彻底告别了数据隐私的担忧。尽情享受这专属于你的、高效安全的智能助手吧。