OpenClaw快速部署

2026-05-05阅读 0热度 0
AI使用

登录与安装

首先,访问OpenClaw的官方网站:https://openclaw.ai/。

在页面上,根据你的操作系统(Windows、macOS或Linux)选择对应的安装命令即可。

OpenClaw官网安装命令选择界面

以Linux系统为例,直接将命令粘贴到终端执行。这里有个小建议:为了系统安全稳定,最好在Docker容器或虚拟机环境中进行安装和操作。

安装需要稳定的网络连接。下图展示的是在CentOS Stream 9的命令行模式下,整个安装过程的实际截图:

CentOS Stream 9命令行安装过程截图

初始配置与模型选择

安装完成后进行初始配置。接入大模型时,如果希望使用国产模型,可以直接跳过国外模型的选择,选择“skip for now”。

大模型选择界面,可跳过国外模型

配置步骤后续界面

接下来的聊天工具和Skill(技能)配置环节,也可以根据需求直接跳过。

聊天工具与Skill配置跳过界面

有一个关键功能推荐启用:找到“Memory”(记忆功能)选项并选中它。这个功能支持多轮对话的上下文关联,能有效避免每次聊天都需要重新交代背景,体验上会顺畅很多。用方向键选中后,按回车确认。

选择启用Memory记忆功能

模型更新与最终设置

初始配置后,需要手动更新或设置大模型。这是保证后续功能正常的关键一步。

大模型更新管理界面

完成模型配置后,安装飞书即可开始使用。

如果一切就绪后聊天却出现报错,那么问题十有八九出在大模型配置上。务必回头检查并更新大模型,通常能解决问题。

需要进行以下几项关键设置:

首先,将模型模式设置为 merge:

openclaw config set models.mode merge

接着,设置一个默认模型,例如以 deepseek-chat 为例:

openclaw models set deepseek/deepseek-chat

最后,在虚拟机或你的操作环境中执行网关启动命令:

openclaw gateway

多端访问与使用

服务启动后,除了电脑端,在手机上也能方便地使用了。

手机端访问OpenClaw的界面示意图

打开手机上的聊天界面,就可以随时随地与配置好的AI助手进行对话了。

手机端聊天对话界面

免责声明

本网站新闻资讯均来自公开渠道,力求准确但不保证绝对无误,内容观点仅代表作者本人,与本站无关。若涉及侵权,请联系我们处理。本站保留对声明的修改权,最终解释权归本站所有。

相关阅读

更多
欢迎回来 登录或注册后,可保存提示词和历史记录
登录后可同步收藏、历史记录和常用模板
注册即表示同意服务条款与隐私政策