OpenClaw使用本地Ollama调用qwen3大模型

2026-05-06阅读 0热度 0
ai OpenClaw

跨环境部署OpenClaw与本地Ollama:一次混合架构的实战配置

如果你正在尝试将OpenClaw与本地大语言模型结合,但希望它们运行在不同的机器上,那么这次在Linux虚拟机部署OpenClaw Server,在物理机运行Ollama并调用Qwen3:30b模型的实践,或许能给你提供一条清晰的路径。

环境说明
虚拟机环境:Linux kali 6.16.8+kali-arm64
物理机环境:Darwin bogon 25.3.0 Darwin Kernel Version 25.3.0

Ollama安装与关键配置

首先从Ollama官网获取安装包进行部署。官网提供了一套与OpenClaw集成的一键式方案,但这个方案默认检测的是本地服务。由于我们的Ollama和OpenClaw分别位于物理机和虚拟机,属于跨机部署,因此需要绕开自动检测,采用手动配置的方式。

image-20260310090617567

安装完成后,首要任务是下载合适的模型。本地模型的性能通常无法与云端API比肩,因此参数规模越大,效果往往越有保障。这次我们选择了qwen3:30b作为基础模型。

image-20260310090721696

接下来的两个配置项至关重要,直接影响OpenClaw能否成功调用。

第一,在Ollama的设置中开启“允许网络访问”,这是跨机调用的前提。
第二,调整模型的上下文窗口。OpenClaw要求模型的上下文窗口不低于16000 tokens,而Ollama拉取的基础模型默认仅为4096 tokens。为了保证功能正常,最好将其扩展至32768 tokens。

image-20260310092251000

OpenClaw配置详解:连接远程Ollama

OpenClaw需要通过一个API Key来识别Ollama服务。对于本地部署,这个Key可以是任意字符串,执行以下命令即可:

openclaw config set models.providers.ollama.apiKey "ollama-local"

官方文档的配置示例适用于同机部署,系统可以通过环境变量OLLAMA_API_KEY自动识别。对于跨机环境,我们必须手动在OpenClaw中添加这个Ollama服务提供者。

官网给出的配置JSON结构如下,这为我们指明了方向:

{models: {providers: {ollama: {// 使用包含 /v1 的主机地址以兼容 OpenAI APIbaseUrl: "http://ollama-host:11434/v1",apiKey: "ollama-local",api: "openai-completions",models: [{id: "llama3.3",name: "Llama 3.3",reasoning: false,input: ["text"],cost: { input: 0, output: 0, cacheRead: 0, cacheWrite: 0 },contextWindow: 8192,maxTokens: 8192 * 10}]}}}}

实际操作中,通过OpenClaw的Web界面进行配置更为直观。打开Web界面后,在Settings下可以切换Form(表单视图)和Raw(原始JSON视图)。

image-20260310145411309

直接定位到models配置部分。整个配置层级可以这样理解:先配置Ollama这个“供应商”(Provider),然后再配置这个供应商下的具体“模型”(Model)。

image-20260310150908893

第一步:配置Ollama供应商
在供应商层级,API Adapter选择openai-completionsAPI Key填入之前设置的ollama-local

image-20260310151136579

最关键的是Base URL,这里必须填入运行Ollama的物理机IP地址,格式为http://[物理机IP]:11434/v1

image-20260310151505864

第二步:配置具体模型
供应商配置好后,开始配置其下的具体模型。创建一个新模型,Api依旧选择openai
Context Windows必须设置为32768(与Ollama中扩展的上下文一致),OpenClaw对此有硬性要求,不得低于16000
由于是本地模型,所有Cost(输入、输出、缓存读写)均可设为0

image-20260310151959234

最后,设置一个IdName(两者可以相同),Input模式选择textMax Token同样设为32768。完成后点击右上角Save保存。

image-20260310152456286

代理设置与最终测试

模型配置完毕,下一步是设置Agent(代理)。其配置逻辑与模型类似,主要通过修改JSON来完成。

image-20260310154406583

完成这些后,返回聊天界面,理论上就可以开始使用了。

image-20260310154849295

值得一提的是,在代理Tools设置中,可以根据实际需求启用或关闭智能体的各类工具。对于本地环境,关闭一些不必要或存在潜在风险的工具,是提升安全性的好习惯。

image-20260310155044998

image-20260310155439893

至此,跨环境的OpenClaw与Ollama混合部署基本完成。不过,一个现实的挑战随之而来:在30B参数模型和跨网络调用的双重压力下,系统的响应速度可能会变得“巨卡无比”。这也是本地大模型应用常常需要面对的权衡。

image-20260310155228434


参考链接

免责声明

本网站新闻资讯均来自公开渠道,力求准确但不保证绝对无误,内容观点仅代表作者本人,与本站无关。若涉及侵权,请联系我们处理。本站保留对声明的修改权,最终解释权归本站所有。

相关阅读

更多
欢迎回来 登录或注册后,可保存提示词和历史记录
登录后可同步收藏、历史记录和常用模板
注册即表示同意服务条款与隐私政策