DeepseekAPI接入OpenClaw时上下文窗口问题
OpenClaw默认不支持Deepseek的api接入
当你尝试在OpenClaw中集成Deepseek时,会发现系统默认并不支持。这时候,就需要手动选择“自定义提供商”(Custom Provider)这项。
上下文窗口的常见陷阱
问题就出在这里:如果选择了“自定义提供商”配合“OpenAI兼容”模式,OpenClaw在配置文件里默认设置的上下文窗口只有4096个token。这个配置文件通常位于用户目录下的 ~/.openclaw/openclaw.json。
这直接导致了使用时弹出那个令人头疼的错误提示——模型会告诉你,它的上下文窗口太小了,根本不够用。
⚠️ Agent failed before reply: Model context window too small (4096 tokens). Minimum is 16000.
Logs: openclaw logs --follow
关键一步:修改配置文件
解决方案其实很简单。既然Deepseek等现代模型普遍支持更大的上下文,我们只需将配置文件里的 contextWindow 值,从默认的4096修改为Deepseek官方提供的128k(即128000)即可。
如图所示,完成这个小小的改动后,一切功能便能恢复正常,顺畅运行了。


