千问AI眼镜首次OTA升级 上线首批AI办事能力
千问AI眼镜完成首次OTA升级,核心“AI办事”能力正式上线
上市不久的千问AI眼镜,近期完成了其首次重要功能迭代。4月2日,通过首轮OTA升级,该产品正式解锁了首批“AI办事”核心服务。这次更新并非简单的功能叠加,它标志着AI眼镜的设备定位开始从被动响应式的信息助手,向具备主动服务能力的智能代理演进。
本次升级的核心价值在于交互范式的转换:将以往依赖手机操作的高频生活指令,整合为基于视觉与语音的直觉式交互闭环。具体而言,设备通过深度整合淘宝闪购与支付宝服务生态,现已支持语音完成话费充值、共享单车扫码开锁、线上缴纳停车费、智能点选外卖等实际场景任务。这预示着AI眼镜正逐步突破“信息显示终端”的局限,开始尝试在物理世界中执行具体指令,向“大模型连接现实世界的行动接口”这一目标扎实迈进。
在典型出行场景中,用户可通过千问AI眼镜直接调取支付宝服务,完成共享单车的解锁或停车场费用支付。日常的话费充值流程,也简化为一句语音指令。在外卖场景下,依托淘宝闪购的集成,从浏览菜品、语音选品、确认下单到免密支付的全链路,均可通过语音对话流畅完成,实现了真正的“动口不动手”。
在强化“办事”能力的同时,其作为智能信息助手的基础功能也同步升级,尤其在“即时场景理解”方面表现更为突出。面对复杂的题目,用户现在可通过设备拍照直接获取分步骤的解题思路与关键考点解析。在多语言沟通场景中,基于大模型优化的实时翻译功能,开始尝试捕捉并转译对话中的细微语气和情感倾向,使得翻译结果更趋自然,减少了机械感。
这种从“知识问答”到“事务处理”的能力拓展,实质上反映了AI原生硬件在设计哲学上的根本转变。正如千问AI硬件业务负责人宋刚此前阐述的理念——新一代硬件应由核心AI能力进行反向定义与驱动。硬件不再是固定功能的集合体,而是围绕“实时在线、无感交互、精准执行”的AI服务体验,进行系统级的架构重塑。简言之,硬件形态正在为适应原生AI交互方式而进化。
千问AI眼镜的应用探索早已超越概念验证阶段。此前,它已在多个行业峰会及大型体育赛事中,承担起实时记录、翻译支持及内容摘要生成等专业级任务。而此次面向日常高频场景的OTA升级,则是其从“专业场景工具”迈向“泛在生活助理”的关键一步,初步验证了AI穿戴设备融入普通人日常动线的可行性。
若将视野放远,可以看出千问意在构建一个多维度的跨终端AI服务矩阵。就在上周,其宣布以AI助手身份接入红旗汽车智能座舱系统,使车主能在驾驶场景中通过语音直接完成信息查询与车控服务。随着未来在PC、手机、智能眼镜及车载系统等多设备间的能力打通与数据流转,用户将能根据场景无缝切换,享受一致且连贯的跨终端AI服务体验。
据悉,本次OTA升级将全面推送给千问AI眼镜G1及夸克AI眼镜G1的用户,更新已于4月2日起分批启动。用户需将“千问AI穿戴”APP更新至最新版本,并将眼镜固件升级至1.2.0版本,方可体验全新功能。此外,千问AI眼镜S1型号计划于本月发布,其后续的OTA更新路径也已规划完成。
