OpenClaw快速部署
登录与安装
首先,访问OpenClaw的官方网站:https://openclaw.ai/。
在页面上,根据你的操作系统(Windows、macOS或Linux)选择对应的安装命令即可。
以Linux系统为例,直接将命令粘贴到终端执行。这里有个小建议:为了系统安全稳定,最好在Docker容器或虚拟机环境中进行安装和操作。
安装需要稳定的网络连接。下图展示的是在CentOS Stream 9的命令行模式下,整个安装过程的实际截图:
初始配置与模型选择
安装完成后进行初始配置。接入大模型时,如果希望使用国产模型,可以直接跳过国外模型的选择,选择“skip for now”。
接下来的聊天工具和Skill(技能)配置环节,也可以根据需求直接跳过。
有一个关键功能推荐启用:找到“Memory”(记忆功能)选项并选中它。这个功能支持多轮对话的上下文关联,能有效避免每次聊天都需要重新交代背景,体验上会顺畅很多。用方向键选中后,按回车确认。
模型更新与最终设置
初始配置后,需要手动更新或设置大模型。这是保证后续功能正常的关键一步。
完成模型配置后,安装飞书即可开始使用。
如果一切就绪后聊天却出现报错,那么问题十有八九出在大模型配置上。务必回头检查并更新大模型,通常能解决问题。
需要进行以下几项关键设置:
首先,将模型模式设置为 merge:
openclaw config set models.mode merge
接着,设置一个默认模型,例如以 deepseek-chat 为例:
openclaw models set deepseek/deepseek-chat
最后,在虚拟机或你的操作环境中执行网关启动命令:
openclaw gateway
多端访问与使用
服务启动后,除了电脑端,在手机上也能方便地使用了。
打开手机上的聊天界面,就可以随时随地与配置好的AI助手进行对话了。








