在 WorkBuddy 中添加自定义Ollama模型方法,已成功测试
概述
这篇文档为你梳理了在WorkBuddy中,如何利用 international-ai-deploy 这个技能来接入和管理自定义的AI模型,特别是与本地Ollama服务对接的完整配置。从技能安装到模型配置文件的编写,流程都在这儿了。
安装 international-ai-deploy 技能
方法1:通过 WorkBuddy 插件市场安装
这是最便捷的路径:打开WorkBuddy,找到侧边栏的“插件”入口,点击进入“插件市场”。在那里,你只需粘贴下面这个URL,就能找到并安装它。
https://github.com/hangtiger/international-ai-deploy-skill
方法2:从 GitHub 安装
如果你习惯命令行操作,可以克隆仓库到本地。
# 克隆仓库
git clone https://github.com/hangtiger/international-ai-deploy-skill.git
克隆完成后,回到WorkBuddy,通过“导入本地技能”的功能将其添加进来。
方法3:直接从 GitHub下载源码压缩包(本人测试)
不想用命令行也没关系。直接在GitHub页面上,找到“Code”按钮,选择“Download ZIP”,你会得到一个名为“international-ai-deploy-skill-master.zip”的文件。解压后,在WorkBuddy左侧菜单找到“技能”,点击右侧的“+导入技能”,然后定位到刚才解压的文件夹即可完成导入。
配置自定义模型
1. 确认技能已安装
首先确保技能已经就位。检查一下这个默认路径,看看文件夹是否存在:
C:\Users\ttyui\.workbuddy\skills\international-ai-deploy-skill-master
2. 使用技能添加模型
关于如何在本地部署Ollama模型,这里就不展开了,网上教程很多,过程不算复杂。假设你已经部署好了,比如我当前使用的模型是:qwen3-coder:30b。
在WorkBuddy中,你可以通过输入指令来触发配置:
添加自定义模型
3. 手动编辑 models.json 文件(推荐)
对于Ollama这类本地模型,更推荐直接手动编辑配置文件,这样控制更精准。文件位于:
C:\Users\ttyui\.workbuddy\models.json
注意,路径中的“ttyui”是我的用户名,你需要把它替换成你自己电脑的用户名。
4. 配置文件结构
确保你的 models.json 文件内容遵循以下结构:
{
"models": [{
"id": "qwen3-coder:30b",
"name": "Qwen3-Coder 30B (Ollama)",
"vendor": "Ollama",
"apiKey": "ollama",
"url": "http://[自定义大模型的IP地址]:11434/v1/chat/completions",
"maxInputTokens": 128000,
"maxOutputTokens": 8192,
"disabled": false
}]
}
5. 关键配置说明
| 配置项 | 作用 |
|---|---|
id | 模型唯一标识符 (至关重要,必须与本地部署的模型名称完全一致) |
name | 用于在界面中显示的友好名称 |
vendor | 供应商,这里填“Ollama” |
apiKey | API密钥,对于自部署的Ollama服务,可以留空或随意填写,比如“ollama” |
url | 访问模型API的完整URL地址 |
maxInputTokens | 模型支持的最大输入token数 |
maxOutputTokens | 模型支持的最大输出token数 |
disabled | 是否禁用该模型,设为false即可启用 |
重要提示
models.json配置文件规则
- 只添加 models[] 数组:这个文件只需要包含
models数组,不要画蛇添足地添加availableModels这类字段。 - 内置模型与自定义模型并存:完全不用担心,WorkBuddy会自动处理好内置模型的显示,你的自定义模型会与它们并列出现。
- 重启 WorkBuddy:修改配置文件后,别忘了重启一下WorkBuddy,这样更改才能生效。
验证配置
- 重启你的WorkBuddy应用。
- 打开模型选择器,如果一切顺利,你应该能看到:原有的内置模型(比如各类Qwen模型),以及你刚刚添加的新成员——Qwen3-Coder 30B (Ollama)。
故障排除
常见问题
模型未显示
- 检查
models.json文件的格式是否正确,是否是有效的JSON。 - 重启一下WorkBuddy应用。
连接错误
- 确认你的Ollama服务正在后台正常运行。
- 仔细核对配置文件中的URL地址是否正确,特别是IP和端口。
- 检查本机的网络连通性,确保能访问到该地址。
配置文件格式错误
- 使用在线的JSON验证工具检查语法。
- 确保所有键和字符串值都使用了双引号。
- 检查数组或对象末尾是否有多余逗号,这在JSON中是不允许的。
总结
走完以上步骤,恭喜你,已经成功完成了三件事:
- 安装了功能强大的
international-ai-deploy技能。 - 配置好了属于你自己的Ollama本地模型。
- 实现了内置模型与自定义模型在WorkBuddy中并列显示的效果,类似下图所示:
现在,尽情享受在WorkBuddy中调用本地强大模型进行开发和测试的乐趣吧!
