openclaw 使用亚马逊amazon-bedrock模型的配置方法
如何为 OPENCLAW 配置 AWS Amazon Bedrock 模型
先分享一个核心判断:OPENCLAW 默认并不直接支持选择 AWS 上的 Amazon Bedrock 模型。这意味着,如果你想调用云端那些强大的亚马逊模型,就得亲自动手,在配置上“动点小手术”。
1、增加亚马逊的令牌环境变量
第一步,我们需要给系统设置好访问亚马逊云服务的“钥匙”。在你的用户目录下,打开或创建 ~/.openclaw/ 文件夹,并在其中新建一个名为 .env 的环境变量文件。
文件内容至关重要,需要严格按照以下格式输入,特别注意键名是区分大小写的:
AWS_ACCESS_KEY_ID=AKXXXXXN
AWS_SECRET_ACCESS_KEY=XXXXXXXQYUXXY
AWS_REGION=us-east-1
这个步骤的目的是什么呢?简单说,它就是让 OpenClaw 的网关(gateway)在启动初始化时,能够顺利读取到访问亚马逊云服务所必需的凭证和区域信息,为后续连接打好基础。
2、在 .openclaw/openclaw.json 配置文件中增加模型提供商信息
接下来是核心操作:在 OpenClaw 的主配置文件里,把我们想要的模型“供应商”加进去。打开 .openclaw/openclaw.json 文件,找到里面的 provider 配置项。这是一个列表(LIST),里面已经存放了各类模型服务的访问方式。
现在,把亚马逊 Bedrock 的提供商信息作为一个新成员添加进去。具体配置如下:
“amazon-bedrock”: { “baseUrl”: “https://bedrock-runtime.us-east-1.amazonaws.com”, “auth”: “aws-sdk”, “api”: “bedrock-converse-stream”, “models”: [ { “id”: “us.amazon.nova-2-lite-v1:0”, “name”: “Amazon Nova 2 Lite (US Inference Profile)”, “reasoning”: false, “input”: [ “text”, “image” ], “cost”: { “input”: 0, “output”: 0, “cacheRead”: 0, “cacheWrite”: 0 }, “contextWindow”: 300000, “maxTokens”: 8192 } ] }
这里有几点需要特别留意:
“baseUrl”:基地址 URL,它指向了 Bedrock 服务的运行时端点。
“auth”:认证方法,必须设置为 “aws-sdk”,这意味着 OpenClaw 会调用 AWS SDK 来处理复杂的签名认证流程,我们前面设置的环境变量就是为了配合它。
“api”:API 调用方式,这里指定为 “bedrock-converse-stream”。
至于下面的模型ID(如 “us.amazon.nova-2-lite-v1:0”),则需要根据你在 AWS 控制台上实际开通和准备使用的模型来准确填写。这里以 Nova 2 Lite 模型为例。一个稳妥的建议是,在配置前,最好先通过亚马逊的管理页面或者写一段简单的 Python 代码来测试一下,确保这个模型是可访问且运行正常的。
3、 进一步配置 openclaw.json 的 agent 部分内容
添加了提供商,还得告诉 OpenClaw 具体用哪个模型干活。这就需要修改配置文件的 agents 部分。
在 defaults -> model 下的 “primary” 字段里,填入我们刚刚定义好的模型全称,格式为“提供商名/模型ID”。同时,你还可以在 “fallbacks” 列表里设置一系列备选模型,以防主模型不可用时自动切换。
可以参考下面的配置示例:
“agents”: {
“defaults”: {
“model”: {
“primary”: “amazon-bedrock/us.amazon.nova-2-lite-v1:0”,
“fallbacks”: [
“custom-192-168-0-249-11434/qwen3-vl:8b”,
“custom-192-168-0-249-11434/qwen3:8b”,
“qwen-portal/coder-model”,
“qwen-portal/vision-model”,
“openrouter/openai/gpt-5”,
“openrouter/qwen/qwen3-8b”,
“ollama/glm-4.7-flash”,
“openrouter/qwen/qwen3-4b:free”
]
},
“models”: {
“custom-192-168-0-249-11434/qwen3-vl:8b”: {
“alias”: “ollama”
},
“custom-192-168-0-249-11434/qwen3:8b”: {
“alias”: “ollama-qwen3”
},
“qwen-portal/coder-model”: {
“alias”: “qwen”
},
“amazon-bedrock/us.amazon.nova-2-lite-v1:0”: {
“alias”: “nova-lite”
},
“qwen-portal/vision-model”: {},
“openrouter/openai/gpt-5”: {},
“openrouter/qwen/qwen3-8b”: {},
“openrouter/qwen/qwen3-4b:free”: {},
“ollama/glm-4.7-flash”: {}
},
“workspace”: “/home/shidongxue/.openclaw/workspace”,
“compaction”: {
“mode”: “safeguard”
},
“maxConcurrent”: 4,
“subagents”: {
“maxConcurrent”: 8
}
}
}
在这份样例中,亚马逊的 Nova 2 Lite 被设置为首选(Primary)模型。而下方的 Fallbacks 列表里,则罗列了从本地部署的 Ollama 模型到其他云端模型的一系列备用选项,形成了多级降级策略,保证了服务的稳健性。
4、 配置完之后,重启网关
所有配置步骤完成后,最后也是最关键的一步:重启 OpenClaw 网关服务,让所有更改生效。
在终端中执行命令:
openclaw gateway restart
等待网关重启完毕,如果一切配置无误,现在你就可以在 OPENCLAW 中正常调用 AWS Amazon Bedrock 上的模型了。整个过程看似步骤不少,但只要按图索骥,一步步来,打通云端模型调用渠道并不复杂。