openclaw 使用亚马逊amazon-bedrock模型的配置方法

2026-05-06阅读 0热度 0
OpenClaw amazon bedrock

如何为 OPENCLAW 配置 AWS Amazon Bedrock 模型

先分享一个核心判断:OPENCLAW 默认并不直接支持选择 AWS 上的 Amazon Bedrock 模型。这意味着,如果你想调用云端那些强大的亚马逊模型,就得亲自动手,在配置上“动点小手术”。

1、增加亚马逊的令牌环境变量

第一步,我们需要给系统设置好访问亚马逊云服务的“钥匙”。在你的用户目录下,打开或创建 ~/.openclaw/ 文件夹,并在其中新建一个名为 .env 的环境变量文件。

文件内容至关重要,需要严格按照以下格式输入,特别注意键名是区分大小写的:

AWS_ACCESS_KEY_ID=AKXXXXXN

AWS_SECRET_ACCESS_KEY=XXXXXXXQYUXXY

AWS_REGION=us-east-1

这个步骤的目的是什么呢?简单说,它就是让 OpenClaw 的网关(gateway)在启动初始化时,能够顺利读取到访问亚马逊云服务所必需的凭证和区域信息,为后续连接打好基础。

2、在 .openclaw/openclaw.json 配置文件中增加模型提供商信息

接下来是核心操作:在 OpenClaw 的主配置文件里,把我们想要的模型“供应商”加进去。打开 .openclaw/openclaw.json 文件,找到里面的 provider 配置项。这是一个列表(LIST),里面已经存放了各类模型服务的访问方式。

现在,把亚马逊 Bedrock 的提供商信息作为一个新成员添加进去。具体配置如下:

“amazon-bedrock”: { “baseUrl”: “https://bedrock-runtime.us-east-1.amazonaws.com”, “auth”: “aws-sdk”, “api”: “bedrock-converse-stream”, “models”: [ { “id”: “us.amazon.nova-2-lite-v1:0”, “name”: “Amazon Nova 2 Lite (US Inference Profile)”, “reasoning”: false, “input”: [ “text”, “image” ], “cost”: { “input”: 0, “output”: 0, “cacheRead”: 0, “cacheWrite”: 0 }, “contextWindow”: 300000, “maxTokens”: 8192 } ] }

这里有几点需要特别留意:

“baseUrl”:基地址 URL,它指向了 Bedrock 服务的运行时端点。 “auth”:认证方法,必须设置为 “aws-sdk”,这意味着 OpenClaw 会调用 AWS SDK 来处理复杂的签名认证流程,我们前面设置的环境变量就是为了配合它。 “api”:API 调用方式,这里指定为 “bedrock-converse-stream”。 至于下面的模型ID(如 “us.amazon.nova-2-lite-v1:0”),则需要根据你在 AWS 控制台上实际开通和准备使用的模型来准确填写。这里以 Nova 2 Lite 模型为例。一个稳妥的建议是,在配置前,最好先通过亚马逊的管理页面或者写一段简单的 Python 代码来测试一下,确保这个模型是可访问且运行正常的。

3、 进一步配置 openclaw.json 的 agent 部分内容

添加了提供商,还得告诉 OpenClaw 具体用哪个模型干活。这就需要修改配置文件的 agents 部分。

defaults -> model 下的 “primary” 字段里,填入我们刚刚定义好的模型全称,格式为“提供商名/模型ID”。同时,你还可以在 “fallbacks” 列表里设置一系列备选模型,以防主模型不可用时自动切换。

可以参考下面的配置示例:

“agents”: { “defaults”: { “model”: { “primary”: “amazon-bedrock/us.amazon.nova-2-lite-v1:0”, “fallbacks”: [ “custom-192-168-0-249-11434/qwen3-vl:8b”, “custom-192-168-0-249-11434/qwen3:8b”, “qwen-portal/coder-model”, “qwen-portal/vision-model”, “openrouter/openai/gpt-5”, “openrouter/qwen/qwen3-8b”, “ollama/glm-4.7-flash”, “openrouter/qwen/qwen3-4b:free” ] }, “models”: { “custom-192-168-0-249-11434/qwen3-vl:8b”: { “alias”: “ollama” }, “custom-192-168-0-249-11434/qwen3:8b”: { “alias”: “ollama-qwen3” }, “qwen-portal/coder-model”: { “alias”: “qwen” }, “amazon-bedrock/us.amazon.nova-2-lite-v1:0”: { “alias”: “nova-lite” }, “qwen-portal/vision-model”: {}, “openrouter/openai/gpt-5”: {}, “openrouter/qwen/qwen3-8b”: {}, “openrouter/qwen/qwen3-4b:free”: {}, “ollama/glm-4.7-flash”: {} }, “workspace”: “/home/shidongxue/.openclaw/workspace”, “compaction”: { “mode”: “safeguard” }, “maxConcurrent”: 4, “subagents”: { “maxConcurrent”: 8 } } }

在这份样例中,亚马逊的 Nova 2 Lite 被设置为首选(Primary)模型。而下方的 Fallbacks 列表里,则罗列了从本地部署的 Ollama 模型到其他云端模型的一系列备用选项,形成了多级降级策略,保证了服务的稳健性。

4、 配置完之后,重启网关

所有配置步骤完成后,最后也是最关键的一步:重启 OpenClaw 网关服务,让所有更改生效。

在终端中执行命令:

openclaw gateway restart

等待网关重启完毕,如果一切配置无误,现在你就可以在 OPENCLAW 中正常调用 AWS Amazon Bedrock 上的模型了。整个过程看似步骤不少,但只要按图索骥,一步步来,打通云端模型调用渠道并不复杂。

免责声明

本网站新闻资讯均来自公开渠道,力求准确但不保证绝对无误,内容观点仅代表作者本人,与本站无关。若涉及侵权,请联系我们处理。本站保留对声明的修改权,最终解释权归本站所有。

相关阅读

更多
欢迎回来 登录或注册后,可保存提示词和历史记录
登录后可同步收藏、历史记录和常用模板
注册即表示同意服务条款与隐私政策