对话季昕华:大模型竞争非算力堆砌,优刻得如何突围?

2026-05-16阅读 0热度 0
大模型

“美国的算力限制,确实会给国内大模型发展带来制约。毕竟,没有核心算力,模型训练就无从谈起。”谈及算力的关键作用,优刻得董事长兼CEO季昕华的观点直指核心。

自今年2月国内大模型热潮兴起,算力便迅速成为业界焦点,同时也被视为一道亟待攻克的技术关卡。然而,从另一个视角看,算力需求的爆发式增长,也为国内的云计算厂商带来了前所未有的市场机遇。

对此,季昕华也表示认同。他认为,算力限制既是挑战也是契机。一方面,若想在一两年内解决“卡脖子”问题,必须加速国产芯片的研发进程,这绝非易事;另一方面,企业对算力的空前重视,反而会倒逼并推动整个国产芯片产业链的快速发展。

作为一家中立的云计算服务商,优刻得其实早已感知到,大模型竞争的背后,是整个算力市场格局即将发生的深刻变革。

“去年11月第一次接触Stable Diffusion时,其生成效果就让人非常惊艳,这促使我们开始密切关注大模型领域。”季昕华回顾了公司关注大模型的起点。他同时透露,当时国内企业尚未普遍关注大模型,其潜在价值也不甚明朗,因此并未立即决定开展相关业务。

优刻得真正开始应用大模型并服务大模型企业,要从今年2月算起——这也正是大模型在国内形成广泛影响力的时间节点。

据了解,优刻得的布局是双线并行的:一方面,基于大模型研发了供内部使用的四款AI产品,包括知识问答平台“识问”、UCoder代码助手、AI绘画助手以及大模型安全管理平台;另一方面,依托其低成本、高附加值的自建数据中心,构建了AIGC算力底座,为大模型的训练、推理及数据处理等环节,灵活提供多种GPU算力资源。

此后,优刻得进一步推出了私有化大模型一体机。该设备内置其自主研发的UCloudStack全栈私有云平台,提供从虚拟化、存储、网络到MaaS模型服务的私有化解决方案,可结合行业垂直大模型一体化交付给企业客户,实现大模型应用的一键部署。

谈及优刻得在大模型时代的定位,季昕华再次强调了“中立”原则。他解释道,中立意味着优刻得与客户之间不存在业务竞争,并且致力于帮助大模型公司寻找客户。季昕华曾公开形象地比喻,在大模型时代,优刻得愿意扮演“红娘”的角色。

从季昕华的阐述中,也可以理解优刻得内部研发和应用大模型产品的深层原因:一是让公司员工率先了解并学会使用大模型,在此基础上,才能更深刻地洞察大模型落地过程中的真实痛点与应用场景,从而为客户提供更精准有效的服务。

展望大模型的未来,季昕华表示,尽管前方存在诸多不确定性,但互联网与人工智能行业对算力的需求是确定无疑的。目前,国内无论在单卡训练能力还是卡间互联能力上仍存在局限。因此,优刻得未来的工作重点,将持续聚焦于打造坚实的大模型算力底座。

竞争大模型不是有卡就能躺赢,工程能力对模型训练至关重要

问: 一种普遍观点认为,最终能参与大模型竞争的云厂商屈指可数,像高速网络这样的能力并非每家都有。您认为真正的竞争壁垒是什么?

季昕华: 高速网络这类技术,其实并非主要门槛。包括优刻得在内的大多数云厂商都有能力构建。目前主流的高性能网络方案主要有两种:一种是RoCE网络,优刻得在2019年就已具备这项能力;另一种是英伟达推荐的IB网络方案,这套方案相对更简单,主要涉及部署和维护。所以,对于云厂商或大型公司而言,技术本身并不是最核心的障碍。

问: 有说法称,很多大模型企业已经开始“囤卡”了?

季昕华: 是的,尤其是一些头部大厂,正在积极储备A800、H800等计算卡。这背后有两个原因:一是其自身的AI业务需要大量算力支撑,加之资金充裕,自然会提前进行大规模采购;二是国内大模型的热潮自今年2月兴起,各厂商出于战略重视,也加快了储备算力的步伐。

问: 那么,是否意味着拥有的卡越多就越有优势,甚至能“躺赢”?其他云厂商又该如何与这些大厂竞争?

季昕华: “躺赢”可谈不上。事实上,现在很多AI大模型公司也在使用我们的算力,这种情况很普遍。

原因有几方面:第一,单一来源的算力往往无法满足全部需求;第二,大模型公司之所以愿意与优刻得合作,是考虑到一些大厂同时拥有算力、算法、数据和场景,与其合作难免存在未来业务竞争的担忧。而优刻得作为中立、安全的云厂商,与大模型企业没有竞争关系。同时,优刻得具备从数据中心、底层架构到算力平台、模型库的全栈技术积累和一站式系统工程服务能力。

做好算力服务,做好大模型“红娘”这个角色

问: 优刻得是从何时开始关注大模型的?

季昕华: 最早接触是在去年国庆期间,首先是看到了Stable Diffusion,其效果令人惊艳,于是开始关注大模型。因此,我们对ChatGPT的跟进也比较早。

问: 所以去年国庆后就决定要投入这个领域了?

季昕华: 去年国庆后,优刻得确实将AIGC定为年度重点方向之一,并在11月发布了AI绘画平台镜像。但真正下定决心全面投入,是在今年2月与国内头部大模型公司深入交流之后。我们察觉到国内算力市场即将迎来爆发性增长,因此在3月底正式决定大力拓展这项业务。

问: 在众多大模型企业中,优刻得有多少潜在客户?

季昕华: 我们统计过,国内专注于大模型的公司约有130家,其中通用大模型78家,垂直大模型52家,而且这个数字还在增加。目前,已有30多家成为了我们的客户。

问: 具体以什么形式提供服务?

季昕华: 主要是两类服务:一是直接提供算力资源;二是提供机房托管服务,因为有些公司会选择自行采购设备,然后放置在我们的数据中心。

问: 机房服务如何理解?是因为客户自身缺乏运营能力吗?

季昕华: 任何企业都需要机房,但大模型所需的机房有两个突出特点:一是电力消耗巨大,二是单机功耗高。例如一台H100服务器的功耗可能超过10千瓦,普通机房难以满足。优刻得在乌兰察布的数据中心就特别适合这类高功耗需求。此外,不少公司面临“有服务器却用不起来”的困境,优刻得可以帮助他们快速搭建算力平台并提供后续运维支持。

问: 除了提供算力,优刻得前段时间还发布了“识问”平台?

季昕华: 优刻得内部开发了四个平台:知识问答平台“识问”、UCoder代码助手、AI绘画助手以及大模型安全管理平台。实际上,在“识问”之前,我们最先推出的是大模型应用管理系统,这是我们的第一款产品,初衷是希望让更多人能便捷地用上大模型。

其次,为了解决商业安全问题,我们设置了一系列限制,包括对用户提问和上传文件进行记录与过滤,防止企业机密信息泄露。

第三,系统会自动记录用户的所有提问以及内外部沟通的返回结果,这些数据沉淀下来,便于企业后续用于持续的模型训练和优化。

问: 开发这四款产品的初衷是什么?未来会对外开放吗?

季昕华: 首要目的是让公司全体员工都能了解并使用大模型。只有亲身实践,才能深入理解大模型公司的真实痛点与落地场景,从而更好地服务客户。目前这些产品主要供内部使用,但如果客户有需求,我们也可以展开深度合作。

问: 这些平台是基于哪个模型进行训练的呢?

季昕华: 我们采用了一种“国外磨枪、国内战斗”的策略。初期会使用GPT-4进行训练和模型验证,待流程跑通后,再逐步迁移到国内大模型或开源大模型上进行优化。

问: 未来有哪些应用场景是您比较看好的?

季昕华: 如果按照对输出内容准确性要求的高低来划分,我们梳理了十个潜力场景:

第一是翻译和配音,大模型在此类任务上的能力已相当出色,完全可以替代部分人工;第二是游戏中的NPC(非玩家角色);第三是社交应用;第四是电商内容生成;第五是游戏设计;第六是智能客服;第七是公文与编程辅助;第八是企业内部知识管理;第九是教育与保险场景;最后是辅助律师和医生工作。

问: 这十个场景会同步推进,还是逐步展开?

季昕华: 优刻得自身不研发大模型,我们的角色是“连接器”或“红娘”。例如,将游戏行业的客户对接给MiniMax,将电商、教育行业的客户对接给智谱华章等合作伙伴。

国内大模型水平赶超GPT-4很难,创业公司机会更多

问: 您认为国内大模型公司可以分为几类?哪些是优刻得的重点客户?

季昕华: 我们大致分为五类。第一类是互联网与科技巨头,如阿里、百度、字节、华&为、京东等。第二类是科学家创业团队,像智谱华章。第三类是原有的AI公司,如“AI四小龙”、达观、云知声、第四范式等。第四类是新兴的创业公司,例如MiniMax。第五类是由其他行业上市公司转型或领军人物创业而来,如昆仑万维、360,以及王小川、李开复等创办的企业。

第一类巨头并非优刻得的目标客户,后面几类才是我们重点服务的对象。

问: 这是否意味着大厂具备自建能力,而其他企业则没有?

季昕华: 大模型涉及人工智能的复杂体系,不仅是网络,还包括存储、机房等一系列基础设施。创业公司理论上也可以自建,但周期会非常长。在大模型这场竞赛中,速度是关键,谁能更快地部署和应用,谁就更可能占据先机。等自建完成,市场窗口期可能已经过去。

问: 对于大厂而言,发展大模型会经历哪几个关键阶段?

季昕华: 首先是模型上线,其次是上线后的效果验证与迭代。目前了解到,已有MiniMax、智谱、百度、阿里、科大讯飞等公司的模型上线。

问: 如何评判哪家的效果更好?是否主要看算力消耗的多少?

季昕华: 不能简单地划等号。训练阶段消耗的算力多,未必能训练出更优的模型。但如果推理环节消耗的算力多,通常意味着用户体量大、调用频繁,由此收集到的反馈数据也更丰富,这反而更有利于迭代和优化模型。

问: 无论是训练还是推理,做大模型首先还是离不开算力吧?

季昕华: 没错。第一要有“卡”,这是硬件基础,没有算力必然落后;第二要有强大的工程能力,否则有卡也用不起来。目前各家在工程能力上的利用率大约在40%-50%之间。解决了这两个问题,接下来还要应对安全挑战,同时流量支撑能力也至关重要。

问: 国内大模型目前处于什么水平?有人认为今年年底就能追上GPT-4。

季昕华: 目前国内还没有出现整体能力超越GPT-3.5的模型,当然在某个特定任务上超越相对容易。但要全面超越GPT-4则非常困难,关键原因在于,GPT-3.5之前的技术论文是公开的,但GPT-4的核心技术细节并未公开,大家尚不清楚其实现路径。

问: 国内大厂也没有机会赶超吗?

季昕华: 从当前效果看,一些大厂的表现可能还不如头部创业公司。因为一些有信念、有远见的创业团队很早就开始布局通用大模型了,而很多大厂是在ChatGPT引爆市场后才开始跟进。

问: 按理说,大厂有更深厚的技术积累,不是更有机会吗?

季昕华: AI领域分支众多。过去几年,业界普遍认为垂直大模型更有机会,对通用大模型的潜力判断相对保守。因此,真正持续投入通用大模型研发的,反而是一些有信念的创业团队和科研机构,比如智谱华章、MiniMax以及中科院的相关团队。

对于大厂而言,更多是在看到国外成功案例后进行战略跟进,起初并未将其提升到公司核心战略的高度,因此在通用大模型的技术积累上,并不一定具备绝对优势。

问: 算力问题迟早会解决,届时优刻得在大模型领域的优势将体现在哪里?

季昕华: 可以总结为三点:第一,坚持中立性,与客户无业务竞争,建立信任基础;第二,具备从数据中心、网络到存储的完整AIGC解决方案构建能力,能帮助中小型公司快速搭建平台,提升大模型使用效率;第三,能够更好地帮助大模型公司拓展下游客户与落地场景。

从今年2月至今,国内大模型热潮已持续近半年。各类通用与垂直模型层出不穷,参数规模竞相攀升,市场竞争日趋白热化,与之相伴的算力竞争也愈发激烈。然而,随着国内对算力自主可控的重视程度空前提高,所谓“卡脖子”的困境,终将在产业合力下被逐步打破。

技术的演进需要思想的碰撞。接下来,一群人工智能领域的开拓者将齐聚新加坡,在第七届GAIR全球人工智能与机器人大会上,带来前沿的洞察与思考。作为国内首个出海举办的AI顶级论坛,这也标志着中国人工智能影响力的进一步扩展。

算力、数据、基础设施,共同构成了大模型时代的“超级基建”。在此次论坛上,季昕华将与多位业界专家一同,围绕《大模型时代的超级基建》这一主题展开深度探讨。届时,包括新加坡国立大学校长青年教授尤洋、汇智智能联合创始人刘黄骁烈、Zilliz创始人星爵、云启资本合伙人陈昱等重磅嘉宾,将共同分享他们对超级基建形态的思考,以及如何筑牢大模型发展基座的实践路径。

免责声明

本网站新闻资讯均来自公开渠道,力求准确但不保证绝对无误,内容观点仅代表作者本人,与本站无关。若涉及侵权,请联系我们处理。本站保留对声明的修改权,最终解释权归本站所有。

相关阅读

更多
欢迎回来 登录或注册后,可保存提示词和历史记录
登录后可同步收藏、历史记录和常用模板
注册即表示同意服务条款与隐私政策