首个毫秒级响应的实时生图大模型!腾讯混元图像2.0正式发布
今天腾讯正式发布了业内首个毫秒级响应的实时生图大模型——混元图像2.0(Hunyuan Image2.0)
这款新模型已经在腾讯混元游戏平台上线,开放了注册体验。最值得关注的是它的两大核心能力:实时生图和超写实画质。

与上一代相比,混元图像2.0的模型参数量直接提升了一个数量级。靠的是什么?关键在于一套超高压缩倍率的图像编解码器,再配合全新的扩散架构。双管齐下,它的生图速度已经明显快于目前行业里的领先模型。
这到底有多快?在其他同类商业产品生成一张图还需要5到10秒推理时间的情况下,腾讯混元已经能做到毫秒级的响应。这意味着用户可以一边打字、甚至一边说话,图像就能同步生成,彻底改变了以往那种“输入提示词-等待结果-不满意再重试”的“抽卡”式体验。

当然,速度快只是基础,画质才是真正的试金石。在图像生成质量上,2.0版本也有了显著提升。通过强化学习等算法,并引入了大量的人类美学知识进行对齐,生成的图像能有效避免常见的“AI味”,真实感更强,细节更丰富,直接可用性大大提高。
这里有个硬指标可以参考:在专门测试模型复杂文本指令理解与生成能力的权威评估基准GenEval上,混元图像2.0的准确率超过了95%,这个成绩目前远超其他同类模型。

提示词:人像摄影,爱因斯坦,背景是东方明珠,自拍视角
为何理解能力这么强?模型背后引入了多模态大语言模型作为文本编码器,再加上自研的结构化caption系统。这套组合拳的厉害之处在于,它不仅理解你说“是什么”,更能推测你想要的画面“该怎么表达”。哪怕你一句话里藏了好几层意思,它也能逐层拆解,然后精准地呈现出来。

交互方式上也更灵活了。除了文字输入,现在还能直接用语音输入提示词,系统会实时将语音转成文字并立刻生图。直播讲解、移动端快速创作,这些场景用起来会非常顺手。
另外,它还支持上传草图作为参考。模型能自动识别线稿的结构和构图逻辑,再结合你给的文字提示,补上光影、材质和背景等细节,迅速把一张草图扩展成完整的画面。
说了这么多,实际效果如何?下面通过一组样图来直观感受一下腾讯混元图像2.0的生成能力:

人像摄影风格

动物特写

复古摄影

动漫风格

真实人物风格