在 WorkBuddy 中添加自定义Ollama模型方法,已成功测试

2026-05-05阅读 0热度 0
ai AI编程

概述

这篇文档为你梳理了在WorkBuddy中,如何利用 international-ai-deploy 这个技能来接入和管理自定义的AI模型,特别是与本地Ollama服务对接的完整配置。从技能安装到模型配置文件的编写,流程都在这儿了。

安装 international-ai-deploy 技能

方法1:通过 WorkBuddy 插件市场安装

这是最便捷的路径:打开WorkBuddy,找到侧边栏的“插件”入口,点击进入“插件市场”。在那里,你只需粘贴下面这个URL,就能找到并安装它。

https://github.com/hangtiger/international-ai-deploy-skill

方法2:从 GitHub 安装

如果你习惯命令行操作,可以克隆仓库到本地。

# 克隆仓库
git clone https://github.com/hangtiger/international-ai-deploy-skill.git

克隆完成后,回到WorkBuddy,通过“导入本地技能”的功能将其添加进来。

方法3:直接从 GitHub下载源码压缩包(本人测试)

不想用命令行也没关系。直接在GitHub页面上,找到“Code”按钮,选择“Download ZIP”,你会得到一个名为“international-ai-deploy-skill-master.zip”的文件。解压后,在WorkBuddy左侧菜单找到“技能”,点击右侧的“+导入技能”,然后定位到刚才解压的文件夹即可完成导入。

配置自定义模型

1. 确认技能已安装

首先确保技能已经就位。检查一下这个默认路径,看看文件夹是否存在:

C:\Users\ttyui\.workbuddy\skills\international-ai-deploy-skill-master

2. 使用技能添加模型

关于如何在本地部署Ollama模型,这里就不展开了,网上教程很多,过程不算复杂。假设你已经部署好了,比如我当前使用的模型是:qwen3-coder:30b。

在WorkBuddy中,你可以通过输入指令来触发配置:

添加自定义模型

3. 手动编辑 models.json 文件(推荐)

对于Ollama这类本地模型,更推荐直接手动编辑配置文件,这样控制更精准。文件位于:

C:\Users\ttyui\.workbuddy\models.json

注意,路径中的“ttyui”是我的用户名,你需要把它替换成你自己电脑的用户名。

4. 配置文件结构

确保你的 models.json 文件内容遵循以下结构:

{
  "models": [{
    "id": "qwen3-coder:30b",
    "name": "Qwen3-Coder 30B (Ollama)",
    "vendor": "Ollama",
    "apiKey": "ollama",
    "url": "http://[自定义大模型的IP地址]:11434/v1/chat/completions",
    "maxInputTokens": 128000,
    "maxOutputTokens": 8192,
    "disabled": false
  }]
}

5. 关键配置说明

配置项作用
id模型唯一标识符 (至关重要,必须与本地部署的模型名称完全一致)
name用于在界面中显示的友好名称
vendor供应商,这里填“Ollama”
apiKeyAPI密钥,对于自部署的Ollama服务,可以留空或随意填写,比如“ollama”
url访问模型API的完整URL地址
maxInputTokens模型支持的最大输入token数
maxOutputTokens模型支持的最大输出token数
disabled是否禁用该模型,设为false即可启用

重要提示

models.json配置文件规则

  • 只添加 models[] 数组:这个文件只需要包含 models 数组,不要画蛇添足地添加 availableModels 这类字段。
  • 内置模型与自定义模型并存:完全不用担心,WorkBuddy会自动处理好内置模型的显示,你的自定义模型会与它们并列出现。
  • 重启 WorkBuddy:修改配置文件后,别忘了重启一下WorkBuddy,这样更改才能生效。

验证配置

  1. 重启你的WorkBuddy应用。
  2. 打开模型选择器,如果一切顺利,你应该能看到:原有的内置模型(比如各类Qwen模型),以及你刚刚添加的新成员——Qwen3-Coder 30B (Ollama)

故障排除

常见问题

模型未显示

  • 检查 models.json 文件的格式是否正确,是否是有效的JSON。
  • 重启一下WorkBuddy应用。

连接错误

  • 确认你的Ollama服务正在后台正常运行。
  • 仔细核对配置文件中的URL地址是否正确,特别是IP和端口。
  • 检查本机的网络连通性,确保能访问到该地址。

配置文件格式错误

  • 使用在线的JSON验证工具检查语法。
  • 确保所有键和字符串值都使用了双引号。
  • 检查数组或对象末尾是否有多余逗号,这在JSON中是不允许的。

总结

走完以上步骤,恭喜你,已经成功完成了三件事:

  1. 安装了功能强大的 international-ai-deploy 技能。
  2. 配置好了属于你自己的Ollama本地模型。
  3. 实现了内置模型与自定义模型在WorkBuddy中并列显示的效果,类似下图所示:

在这里插入图片描述

现在,尽情享受在WorkBuddy中调用本地强大模型进行开发和测试的乐趣吧!

免责声明

本网站新闻资讯均来自公开渠道,力求准确但不保证绝对无误,内容观点仅代表作者本人,与本站无关。若涉及侵权,请联系我们处理。本站保留对声明的修改权,最终解释权归本站所有。

相关阅读

更多
欢迎回来 登录或注册后,可保存提示词和历史记录
登录后可同步收藏、历史记录和常用模板
注册即表示同意服务条款与隐私政策