JetBrains 旗下 AI Assistant 应用获更新,支持开发者接入本地 DeepSeek 等大语言模型

2026-05-01阅读 0热度 0
其他

JetBrains AI Assistant重大更新:本地模型支持与云端新成员

二月的一个重磅消息:JetBrains的“AI助手”应用迎来了一次关键升级。这次更新的焦点,毫无疑问是LM Studio功能的全面增强。最值得开发者关注的改变是什么?简单来说,就是它新增了对本地大语言模型的调用支持。这意味着什么?开发工作对OpenAI、Anthropic这些云服务的直接依赖,有望大幅降低了。

JetBrains 旗下 AI Assistant 应用获更新,支持开发者接入本地 DeepSeek 等大语言模型

LM Studio:连通本地与云端的新桥梁

这里需要先明确一下LM Studio的角色。它本质上是JetBrains AI助手应用里的一项核心功能,目标就是让开发者能够更方便地下载、部署和管理诸如Llama、Mistral这类开源模型,并通过标准的API接口,把这些模型能力对接到各式各样的开发工具链里。而本次更新的“杀手锏”就在于,LM Studio现在允许开发者直接运行存储在本地计算机上的离线模型了——比如近期备受关注的DeepSeek模型。这无疑为追求数据隐私、网络稳定性或特定定制化需求的开发场景,打开了一扇新的大门。

云端阵容扩容:前沿模型加入战局

当然,JetBrains并没有顾此失彼。在强化本地化能力的同时,此次更新也为LM Studio的云端模型库带来了新鲜血液。现在,开发者可以直接调用的云端模型列表中,新增了Anthropic家的Claude 3.5 Sonnet和Claude 3.5 Haiku。另一边,OpenAI阵营的最新力作——包括推理能力突出的o1、o1-mini以及更高效的o3-mini模型——也一并被纳入支持范围。如此一来,开发者便能在本地部署的灵活性与云端最前沿模型的强大能力之间,根据项目需求自由选择和切换了。

话说回来,这次更新清晰地传递了一个信号:工具链正朝着多元化、自主可控的方向演进。对于开发者社区而言,这绝对是个值得深入体验的好消息。

免责声明

本网站新闻资讯均来自公开渠道,力求准确但不保证绝对无误,内容观点仅代表作者本人,与本站无关。若涉及侵权,请联系我们处理。本站保留对声明的修改权,最终解释权归本站所有。

相关阅读

更多
欢迎回来 登录或注册后,可保存提示词和历史记录
登录后可同步收藏、历史记录和常用模板
注册即表示同意服务条款与隐私政策