安装openclaw来拥有你自己的AI Agent吧

2026-05-06阅读 0热度 0
linux 服务器 运维

先命令行安装openclaw吧

想快速上手OpenClaw(绰号“龙虾”)吗?第一步,在你的终端里执行下面这行简单的命令,就能把它请回家了。

curl -fsSL https://get.openclaw.ai | bash

再搞一个免费的模型吧:

安装完毕,接下来是关键一步:为你的“龙虾”配备一个聪明的大脑,也就是大语言模型。这里有两个值得尝试的免费选项。

1 千问

模型来源:https://docs.openclaw.ai/zh-CN/providers/qwen

这个模型提供了每日2,000次请求的免费额度,不过调用速率会受到千问官方平台的限制。

配置过程也很直观。执行以下命令后,系统会自动打开千问的授权页面,用你的账号登录即可。例如,通过Google授权就能快速完成登录。

openclaw plugins enable qwen-portal-auth openclaw models auth login --provider qwen-portal --set-default openclaw gateway restart

成功授权后,可以检查配置文件 ~/.openclaw/openclaw.json。你会看到默认模型已经指定为 qwen-portal/coder-model,这表明设置已生效:

"agents": {
  "defaults": {
    "model": {
      "primary": "qwen-portal/coder-model"
    }
  }
}

2 Ollama

如果你追求极致的免费和隐私,Ollama是绝佳选择。它直接在本地运行模型,完全不需要联网调用。

从Ollama拉取模型到本地,这个过程视模型大小和网速而定。比如,拉取一个42GB的模型可能需要一两个小时,请预留好时间。

# 42G,太大了,一两个小时吧 ollama pull llama3.3 # 或 ollama pull qwen2.5-coder:32b # 或 ollama pull deepseek-r1:32b

模型下载完成后,同样需要手动修改 .openclaw/openclaw.json 配置文件,将主要模型和备用模型指向你刚下载的Ollama模型,并别忘记重启网关服务。

{
  "agents": {
    "defaults": {
      "model": {
        "primary": "ollama/llama3.3",
        "fallbacks": ["ollama/qwen2.5-coder:32b"]
      }
    }
  }
}

openclaw gateway restart

给你的openclaw开放读写权限吧

想让你的“龙虾”帮你写代码、整理文件吗?那就需要赋予它相应的操作权限。执行下面的命令,将工具配置文件设置为“coding”模式。

openclaw config set tools.profile “coding”

设置完成后,为了让新配置生效,记得重启一下网关。

openclaw gateway restart

参考:

  1. 赋予openclaw读写权限的相关文档。

调教你的小龙虾吧

基础配置全部搞定,现在终于到了有趣的互动环节。你可以先给它起个酷炫的名字,比如“Jarvis”,甚至定制一下它对你的称呼——没错,体验一下当“女王大人”的感觉也无妨。

然后,就可以开始测试它的能力了。让它做个自我介绍、查查今天的天气、帮你整理杂乱的桌面文件夹,或者草拟一封邮件。通过这些简单的任务,你就能快速熟悉它的交互方式和能力边界。

API调用达上限了

使用免费资源,绕不开配额限制这个问题。千问模型每日2,000次的请求上限,对于高频使用的开发者来说,可能很快就触达了。

这时候,前面配置好的本地Ollama模型就派上用场了。切换过去,完全不受网络配额限制。要使用它,只需设置一个环境变量或在配置中指定API密钥即可。

# 设置环境变量 export OLLAMA_API_KEY=“ollama-local” # 或在配置文件中设置 openclaw config set models.providers.ollama.apiKey “ollama-local”

遇到的一些问题:

实战中,难免会碰到一些小麻烦,这里记录了两个典型情况及应对思路。

1. API Limit (配额超限)

现象:千问的免费额度用完了。
解决:要么切换到另一个免费模型(如本地Ollama),要么考虑为API服务付费以提升限额。

2. LLM Request Timed Out. (请求超时)

现象:模型请求长时间无响应最终超时。
解决:这个问题原因可能比较复杂。一个实用的绕过方法是,第二天尝试切换成另一个可用的模型,有时就能恢复正常。

一些技巧

当你遇到诸如权限错误、配置项缺失这类常见问题时,别忘了OpenClaw自带了一个好用的诊断修复工具:

openclaw doctor --fix

运行它,系统会自动检查并尝试修复一些已知的配置问题,能省去不少手动排查的功夫。

参考文档:

  1. Ollama 官方下载地址。
  2. OpenClaw 官网文档。
免责声明

本网站新闻资讯均来自公开渠道,力求准确但不保证绝对无误,内容观点仅代表作者本人,与本站无关。若涉及侵权,请联系我们处理。本站保留对声明的修改权,最终解释权归本站所有。

相关阅读

更多
欢迎回来 登录或注册后,可保存提示词和历史记录
登录后可同步收藏、历史记录和常用模板
注册即表示同意服务条款与隐私政策