OpenClaw 用什么模型?
模型选择与使用策略
若论综合表现,GPT-5.4堪称首选——百万级token的上下文容量,配合出色的世界知识储备,确实令人印象深刻。
编程场景下,Sonnet 4.6的表现更为专业。至于Opus 4.6,性能虽强但成本较高,日常使用难免让人犹豫。
当然,Github Copilot的订阅方案也值得考虑。
请求次数管理
需要注意的是,每次会话都会消耗高级请求额度。10美元月费的Pro版本每月仅提供300次高级请求,这个限制需要精打细算。
日常对话建议配置为0x模型(具体参考官方文档),比如github-copilot/gpt-5-mini。虽然效果较GPT-5.4有所差距,但性价比更高。
模型配置要点
所有使用的模型必须在agents.defaults.models列表中明确声明。例如:
"github-copilot/gpt-5.4": {"alias": "gpt5.4"},
"github-copilot/gpt-5-mini": {"alias": "gpt5-mini"},
"github-copilot/claude-sonnet-4.6": {"alias": "sonnet"}
要查看特定API厂商支持的完整模型列表,只需执行:openclaw models list --all --provider github-copilot
环境部署建议
是时候开始打造你的数字分身了!关于系统选择,这里有几个实用建议。
平台优先级排序
网上普遍推荐macOS为首选,其次是Ubuntu。Windows环境下建议使用WSL2(本质上仍是Ubuntu)。
不过从实际体验来看,macOS确实最为顺畅,Windows PowerShell的兼容性也相当不错,WSL2紧随其后,原生Ubuntu反而排在末位——毕竟Windows平台的软件生态更为丰富。初期阶段,关键是先让系统跑起来。
环境配置指南
macOS和Linux用户需要先安装Homebrew:
/bin/bash -c "$(curl -fsSL https://raw.githubusercontent.com/Homebrew/install/HEAD/install.sh)"
安装完成后验证版本:brew --version
Windows用户配置WSL环境:
查看当前WSL版本:wsl -l -v
全新安装:wsl --install (该命令会自动安装WSL2并配置最新版Ubuntu)
输入wsl即可进入Ubuntu终端环境