时间:26-04-01
部署OpenClaw的第一步,是准备其核心推理引擎。我们推荐使用基于vLLM部署的Qwen3-32B模型,该方案在显存优化和推理吞吐量上表现优异,能满足生产级智能体对响应速度和稳定性的要求。请确保你的vLLM服务已在一台独立服务器上成功启动,并记录其API端点地址(例如 http://10.9.90.90:8085/v1)。这个地址是后续所有配置的基石。
免费影视、动漫、音乐、游戏、小说资源长期稳定更新! 👉 点此立即查看 👈
从源码构建能让你获得最完整的控制权。项目提供了一个自动化的Docker部署脚本,它将引导你完成环境搭建与初始化配置。执行以下命令:
# 1. 克隆项目仓库到本地
git clone https://github.com/openclaw/openclaw.git
cd openclaw
# 2. 运行Docker部署脚本,它会帮你搞定大部分环境依赖
./docker-setup.bash
# 3. 跟随脚本的交互式向导进行配置
# - 部署模式选择:QuickStart
# - 模型提供商:选择本地vLLM或自定义API
# - 启用 session-memory 以支持智能体的多轮对话记忆
# 配置完成后,脚本会生成一个 onboarding link,用于获取访问网关的初始Token
执行脚本后,系统会启动一个终端内的可视化配置向导。该向导结构清晰,你会依次完成:
(此处为终端配置向导的详细输出,从安全警告开始,依次经过模型选择、通道配置、插件安装、钩子启用等步骤,最终完成配置并输出控制面板链接。)
关键配置项包括:阅读并确认安全协议、选择QuickStart快速部署模式、填入vLLM服务的API地址及模型名称(Qwen3-32B)、绑定一个即时通讯通道(如飞书)、以及激活session-memory等核心功能钩子。配置结束时,向导会明确给出控制面板的访问链接和鉴权Token。
所有通过向导设定的参数,最终都会持久化在用户主目录的 ~/.openclaw/openclaw.json 文件中。这是OpenClaw的全局配置文件,其结构定义了系统的核心行为。使用 cat 命令查看其内容:
cat ~/.openclaw/openclaw.json
{
"meta": { ... },
"models": {
"mode": "replace",
"providers": {
"openai-proxy": {
"baseUrl": "http://10.9.90.91:8086/v1", // 指向你的vLLM服务
"apiKey": "sk-nokey",
"models": [{
"id": "Qwen3-32B", // 指定的模型
"contextWindow": 40960 // 上下文长度
}]
}
}
},
"agents": {
"defaults": {
"model": {
"primary": "openai-proxy/qwen3-32B" // 默认使用的模型
}
}
},
"channels": {
"feishu": { ... } // 飞书通道的配置信息
},
"gateway": { ... } // 网关配置,包括端口和Token
}
该文件明确定义了模型供应商、默认智能体参数、通讯通道及网关设置。如需后续调整,可直接编辑此文件或重新运行配置命令。
首次通过控制面板链接访问Web UI时,客户端会向网关发起设备连接请求。出于安全考虑,你需要进入网关容器内手动审批此请求。
# 进入网关容器
docker exec -it openclaw-openclaw-gateway-1 bash
# 列出待批准的设备请求
node dist/index.js devices list --token “你的网关Token”
# 批准指定的请求ID
node dist/index.js devices approve <请求ID> --token “你的网关Token”
审批通过后,你的浏览器即被授权为“操作者”设备,可无障碍访问控制面板。这套基于Token和设备审核的机制,为自托管部署提供了基本的安全层。
配置完成后,建议验证模型注册状态。在网关容器内执行以下命令:
node dist/index.js models list
若配置无误,输出列表中应出现 openai-proxy/qwen3-32B 模型,这表明模型层已成功接入系统。
至此,一个以Qwen3-32B为大脑、集成飞书通讯的OpenClaw智能体已部署完毕。其核心价值在于“跨插件协作”能力。你可以在飞书会话中直接下达复合指令,例如:“分析近期AIGC市场趋势,并使用Notion插件生成一份结构化的竞品分析报告。”智能体将自主规划任务流,依次调用知识库检索、网络爬取、数据整理及Notion编辑等多个插件工具,最终交付结果。下图展示了在通讯通道中的实际交互场景。