Ling-2.6-1T 正式开源:面向复杂任务的万亿级综合旗舰模型

2026-04-30阅读 0热度 0
旗舰模型

Ling-2.6-1T 正式开源:面向复杂任务的万亿级综合旗舰模型

上周,我们发布了 Ling-2.6-1T;今天,我们将 Ling-2.6-1T 正式开源。

大模型的发展轨迹正在发生一个根本性的转变:从“单轮问答”的演示场景,走向支撑真实业务系统的核心引擎。这意味着,行业对模型能力的评判标准也在悄然改变。过去,竞争往往围绕着参数规模和榜单分数展开;而现在,开发者和企业更关心的是,模型能否在复杂的上下文中稳定理解任务,能否精准遵循指令,能否可靠地调用工具,又能否在多步骤的工作流中持续执行——并且,这一切都必须在成本、延迟和Token消耗可控的前提下完成。

在Agent、代码生成、知识管理和自动化办公等实际场景中,模型扮演的角色早已超越了“答题器”。它被深度嵌入到系统内部,承担起规划、执行、修正、验证和交付等一系列连续任务。因此,模型能否在长上下文、多工具、多约束的环境下保持稳定输出,能否将杂乱的输入信息整理成清晰可执行的指令,能否在反复调用中维持较低的Token开销和更高的任务完成率,就成了衡量其价值的关键。

这正是我们推出 Ling-2.6-1T 的核心出发点。

Ling-2.6-1T 的设计目标,并非单纯追求更长的思考链或制造参数规模的“体感”,而是面向真实世界的复杂任务,系统性地优化模型的智效比、指令执行、工具适配、长上下文承接和工程任务处理能力。我们希望它能成为复杂工作流中那个可靠的核心:既能理解宏大的目标并拆解出清晰的路径,也能在多样化的Agent框架、开发工具链和真实业务流程中稳定推进,直至交付结果。

具体来说,Ling-2.6-1T 重点解决了三个关键问题:

第一,在更低Token开销下保持强综合智能。

依托MLA与Linear Attention的Hybrid架构创新,并结合了抑制“过程冗余”的强化奖励策略,Ling-2.6-1T在保持1T参数能力上限的同时,减少了对冗长思考链的依赖。它通过更高效的“快思考”机制直达结果,从而显著压缩了达到同等智能水平所需的输出成本。

第二,在复杂任务中实现更可靠的多步执行。

在Agent、代码生成和工作流场景中,模型需要的远不止单点回答能力,而是对指令、工具、上下文和中间状态的持续把控能力,以及在噪声环境下的稳健推理。Ling-2.6-1T 加强了对复合型任务的学习,在AIME26、SWE-bench Verified、BFCL-V4、TAU2-Bench、IFBench等执行类基准测试中达到了开源模型的SOTA水平,充分展现了其面向复杂任务的综合执行能力。

第三,让万亿级模型真正进入开发者和企业的生产工作流。

Ling-2.6-1T 具备了从代码生成到缺陷修复的完整工程落地能力,并与主流Agent框架高度兼容,适用于多工具、多步骤、多约束的复杂场景。它的目标不是停留在单次惊艳的演示,而是成为真实业务系统中可部署、可协同、可持续运行的能力底座。

简而言之,Ling-2.6-1T 追求的不仅是“更强”,更是在真实使用中做到更高效、更落地、更智能

Ling-2.6-1T 正式开源:面向复杂任务的万亿级综合旗舰模型

以高智效比释放强综合能力

在企业级部署和重度依赖复杂Agent工作流的实际业务中,大模型输出的语义冗余度,直接牵动着系统的端到端延迟、计算资源消耗以及总体的API推理成本。这已经成为一个核心痛点。针对这一点,Ling-2.6-1T 在底层训练策略上进行了深度演进,将大幅提升Token效率作为关键优化维度。通过演进式思维链策略与针对性的上下文冗余判断机制,模型在构建逻辑路径时能够有效规避无意义的语义堆砌,从而极大提升了输出的信息密度。

  • 高智效比优势突出:在Artificial Analysis评测中,Ling-2.6-1T 仅用约16M输出Token就达到了约34分的Intelligence Index,进入了图表中的高吸引力区间。这说明它能够在相对克制的Token消耗下,提供强劲的综合智能表现。
  • 综合智能已进入领先模型区间:相比Ling系列早期的旗舰模型Ling-1T,Ling-2.6-1T在能力上实现了显著跃迁,并已展现出与GPT-5.4(Non-Reasoning)同档的综合智能表现。
  • 更适合真实部署的能力—效率平衡:相较于部分依赖更高Token消耗来换取分数的模型,Ling-2.6-1T在效率与能力之间取得了更佳的平衡,更适合需要同时兼顾成本、吞吐量与任务完成度的真实业务场景。
Ling-2.6-1T 正式开源:面向复杂任务的万亿级综合旗舰模型

与此同时,Ling-2.6-1T 以仅16M tokens完成Artificial Analysis完整评测,在同类模型中展现出极其突出的Token效率,体现了其在低成本、高吞吐与强落地性方面的综合优势。

Ling-2.6-1T 正式开源:面向复杂任务的万亿级综合旗舰模型 Ling-2.6-1T 正式开源:面向复杂任务的万亿级综合旗舰模型

面向复杂任务,提升多步执行稳定性

在推理、代码、工具调用、多步任务执行等多个维度,Ling-2.6-1T 展现出均衡的综合能力,对多样化的Agent框架、工具链与工作流编排环境具备良好的适配性,在多个执行类基准测试上达到了开源SOTA水平。

  • 高难推理能力突出:AIME26上,Ling-2.6-1T 显著领先于其他非思考模型,展现出更强的复杂问题分析与求解能力。
  • Agent执行能力处于第一梯队:SWE-bench Verified、TAU2-Bench、Claw-Eval、BFCL-V4PinchBench上,Ling-2.6-1T 均达到第一梯队水平,在工具调用、多步任务推进与真实工作流执行中均有出色表现。
  • 长上下文理解与优秀的指令遵循能力:MRCR(16K-256K)IFBench上均取得较高分数,表明模型不仅具备更强的长文本理解能力,同时能够保证在多重约束下的执行准确率与逻辑一致性。
Ling-2.6-1T 正式开源:面向复杂任务的万亿级综合旗舰模型 Ling-2.6-1T 正式开源:面向复杂任务的万亿级综合旗舰模型 Ling-2.6-1T 正式开源:面向复杂任务的万亿级综合旗舰模型 Ling-2.6-1T 正式开源:面向复杂任务的万亿级综合旗舰模型

面向生产场景,让万亿模型真正可用

网页和设计生成

在网页和设计生成场景中,Ling-2.6-1T 展现出较强的风格理解、视觉转译与前端结构生成能力。它不仅能够快速生成高质量的前端代码,完成基础页面搭建,还能根据用户对主题、风格与使用场景的描述,精准转化为具有差异化视觉表达的网页原型。在生成过程中,模型能够对字体、配色、组件形态、信息层级和整体视觉氛围进行有意识的设计组织,使页面呈现出明确的设计意图,而非简单套用通用模板。

面对工业风、拟物化、博物馆风格、数据看板、电商页面、报告页、工具界面等多样化需求,Ling-2.6-1T 能够将抽象的风格指令转化为可视化、可交互、可进一步迭代的页面结果。这意味着它不仅具备代码生成能力,也具备一定的审美判断与页面结构规划能力,适合用于多风格落地页、专题页、可视化报告、产品原型和交互展示页面的快速生成与验证。

代码能力

Ling-2.6-1T 可在人机协作中完成复杂的代码任务,在OpenCode等coding agent中便捷使用。通过合适的协作和指示,它能胜任客户端、服务端、数据库研发等多样化的代码生成任务;也能以Web技术实现例如幻灯片演示等需要审美和设计的开发任务。

写作和文本生成

在内容创作演示中,Ling-2.6-1T 展现出更细腻、更可控的文本生成能力。模型不仅能够完成广告文案、故事创作、品牌表达、社交媒体内容等多类型写作任务,还能根据用户指定的受众、场景、风格与表达目标进行精准调整。相比容易出现模板化、机械感和“AI腔”的通用生成结果,Ling-2.6-1T 更擅长通过画面感、语感控制、视角创新和情绪表达,生成更自然、更生动、更具感染力的文本内容。

在多轮修改中,模型也能够保持主题一致性与风格稳定性,为创作者提供接近专业文案协作的写作体验。同时,Ling-2.6-1T 在多语言内容生成中也展现出较强能力,能够结合广泛的世界知识,理解不同社区语境、文化梗、写作体裁与格式限制。例如,在Subreddit风格内容生成、英文诗歌创作等任务中,模型能够准确把握语气、结构和表达习惯,完成从论坛帖文、诗歌创作到跨场景内容演示的多样化生成任务。

Agent和知识库

Ling-2.6-1T 具备强力的信息提纯与复杂内容调用能力。在海量文档中,它能精准提取关键知识点;若接入长期记忆工具,可作为高精度的记忆层,理清复杂实体关系,为工作提供辅助。我们在这个例子中用「百年孤独」的前两章进行了知识库实体抽取的验证。

Ling-2.6-1T 正式开源:面向复杂任务的万亿级综合旗舰模型

局限性与未来计划

延续对通用智能的探索,Ling-2.6-1T 在高难度推理与Agent场景中取得了显著突破。模型在复杂高难度推理中已展现出色的Token效率,未来我们将持续提升其在知识密集型任务下的Token效率表现,追求更优的智能表现。同时,面对真实世界更严苛的交互需求,我们将进一步优化Agent长程规划的全局一致性与复杂信息检索能力,并重点打磨复杂指令下的跨语言动态对齐,改善偶发的中英双语切换偏移现象。下一步,我们将继续拓宽模型性能边界,推动全场景复杂任务的交付效率与交互体验全面进化。

Ling-2.6-1T 正式开源:面向复杂任务的万亿级综合旗舰模型

使用与体验

开发者反馈

在Ling-2.6-1T API免费调用期间,社区开发者给出了许多真实反馈。大家普遍关注到,Ling-2.6-1T 并不是单纯追求参数规模或单次推理表现,而是更强调token效率、工作流中的稳定重复执行,以及在真实生产力工具中的可用性。这也进一步印证了我们对Ling-2.6-1T的定位:面向真实复杂任务,兼顾能力、效率与可落地性。

Ling-2.6-1T 正式开源:面向复杂任务的万亿级综合旗舰模型 Ling-2.6-1T 正式开源:面向复杂任务的万亿级综合旗舰模型 Ling-2.6-1T 正式开源:面向复杂任务的万亿级综合旗舰模型 Ling-2.6-1T 正式开源:面向复杂任务的万亿级综合旗舰模型 Ling-2.6-1T 正式开源:面向复杂任务的万亿级综合旗舰模型 Ling-2.6-1T 正式开源:面向复杂任务的万亿级综合旗舰模型 Ling-2.6-1T 正式开源:面向复杂任务的万亿级综合旗舰模型

滑动查看更多

开发者福利继续加码

为支持更多开发者体验与评测Ling-2.6-1T,我们将OpenRouter平台的免费API调用服务延期一周。开发者可继续通过OpenRouter低门槛接入模型,验证其在复杂任务执行、工具调用、代码生成与长上下文理解等场景中的能力。

? OpenRouter 体验地址:

https://openrouter.ai/inclusionai/ling-2.6-1t:free

开源权重和本地部署

欢迎大家试用、反馈和交流

? Hugging Face

https://huggingface.co/inclusionAI/Ling-2.6-1T

? ModelScope

https://www.modelscope.cn/models/inclusionAI/Ling-2.6-1T

点击【阅读原文】,访问 Ling-2.6-1T 的 Hugging Face 地址。

免责声明

本网站新闻资讯均来自公开渠道,力求准确但不保证绝对无误,内容观点仅代表作者本人,与本站无关。若涉及侵权,请联系我们处理。本站保留对声明的修改权,最终解释权归本站所有。

相关阅读

更多
欢迎回来 登录或注册后,可保存提示词和历史记录
登录后可同步收藏、历史记录和常用模板
注册即表示同意服务条款与隐私政策