时间:26-04-01
通过OpenClaw与本地Ollama模型集成,您可以在安全、私有的环境中部署AI助手。本指南将引导您完成配置的核心步骤。
免费影视、动漫、音乐、游戏、小说资源长期稳定更新! 👉 点此立即查看 👈
在终端执行以下命令,启动配置向导:
openclaw onboard
跟随命令行提示,准确输入以下关键参数。每一步都直接影响Ollama的API连接成功率。
1. 系统安全提示确认:输入 "Yes" 授权继续配置
2. 部署模式选择:为快速验证,选择 "QuickStart" 方案
3. 模型供应商设置:指定为 "Ollama"(高级用户可选“Custom Provider”进行自定义)
4. API基础地址配置:填入本地端点 http://localhost:11434/v1
5. API密钥验证:输入 "ollama" 作为密钥(或任一非空字符串)
6. 接口兼容性选择:设定为 "OpenAI-compatible" 以匹配标准协议
7. 模型标识符指定:输入您已通过Ollama拉取的模型名称,例如“qwen2.5:7b”
全部参数设置完毕后,必须重启OpenClaw服务,以加载新的Ollama连接器。
openclaw restart