国产AI基础设施新势力崛起:2024年权威榜单与深度评测

2026-05-16阅读 0热度 0
驿心科技

DeepSeek近期开源了包括FlashMLA、DeepEP、DeepGEMM、DualPipe及3FS系统在内的一系列核心底层组件。这套开源组合拳,精准覆盖了AI基础设施中计算、网络与存储等关键环节,为行业性能优化提供了极具价值的工程实践参考。

这股开源风潮,正驱动国内AI基础设施领域进行新一轮的技术思考与实践。业界正积极探索,如何借鉴这些前沿思路,为大模型的训练与推理构建更高效的解决方案。驿心科技,便是这条赛道上的积极实践者之一。

DeepSeek开源3FS等组件,直指一个核心挑战:数据在存储、网络传输至GPU的整个流水线性能,已成为制约AI训练与推理效率的关键瓶颈。而这,正是驿心科技全力攻坚的技术方向。

驿心科技创立于2023年9月,由前旷视科技创始合伙人吴文昊领衔。公司目标清晰:从基础架构层进行创新研发,基于标准的GPU服务器本地存储与通用以太网络,构建出媲美甚至超越传统RDMA存储网络或商业训练存储方案的性能。此举旨在显著降低模型部署的总体拥有成本与工程复杂度,为后续在DeepSeek等通用模型上的深度优化奠定基础,最终实现模型运行效率的全面提升。

一个关键细节凸显了其方案优势:驿心方案完全基于标准的企业级服务器与通用网络硬件,无需任何定制化硬件、专用网络或深度修改的内核。相比之下,传统AI基础设施中常见的高性能文件存储方案,往往依赖定制服务器、特定网络交换设备及深度定制的操作系统。两相比较,驿心提出的这套一体化AI基础设施解决方案,在部署效率与成本效益上的优势不言而喻。

架构重构催生的新机遇

传统上,AI基础设施常被划分为供应链与云服务两层。然而,随着过去两年AGI技术的突破性进展,大模型本身呈现出显著的“基础设施化”趋势。有观点进一步认为,未来模型本身可能演变为一种新型的“操作系统”。

在此宏观趋势下,技术架构与供应链的双重重构,为AI基础设施创业开辟了新的战场。

首先看技术架构。高性能计算、云计算与人工智能三者对基础设施的需求各有侧重。云的基础设施并非专为AI或HPC设计,这种错配会导致资源利用的价值损耗:云的业务模型本质围绕网络构建,通过超售CPU、网络、存储等资源获利,一旦无法有效超售,其利润模型便面临挑战。

而AI基础设施的规模化崛起,重构了这一价值链条。因为AI基础设施以GPU为核心,云厂商很难提供最优化的底层设施,他们必须同时兼顾自身庞杂的云原生应用生态需求。

再看AI与HPC。AI虽源于HPC,两者都追求千卡、万卡级别的集群规模,但计算范式存在根本差异:HPC专注于仿真模拟,追求计算结果的确定性与高精度;而AI的核心是概率计算,目标在于提升下一个词元预测的准确性。

除了技术架构,国内芯片供应链的重构同样催生了巨大的AI基础设施机遇,DeepSeek的快速发展无疑加速了这一进程。

然而,在重构发生的同时,算力设备、能源消耗、机房空间与资金投入这四大现实瓶颈,正切实制约着AI算力的发展。针对这些痛点,驿心科技依托GPU服务器本地存储与通用以太网络,打造了一套特色鲜明的一体化方案:

Tier-0 ← Tier-1 存储架构

首先是AI集群一体化方案的技术突破。驿心的Tier-0存储方案,能够高效利用GPU服务器内部的存储资源。这意味着企业在构建AI计算集群时,无需再额外部署独立的存储集群与专用存储网络,从而大幅削减了模型落地的资本支出与运营成本,并显著加快了部署速度。这不仅降低了企业与科研机构的技术门槛与财务压力,更使得前沿AI模型能够以更快的节奏从研发阶段走向规模化应用。

其次在AI存储层面,驿心科技支持多云、多数据中心的全局文件系统,实现了大模型数据的上传、更新与管理的无缝衔接,提供了统一的存储管理视图,极大提升了AI工作流中的数据访问效率。该方案不仅兼容传统的文件与对象存储,也能与DeepSeek开源的3FS并行文件系统协同工作;其智能数据分层与缓存机制,能够敏捷响应AI工作负载对数据的高吞吐、低延迟需求,加速训练与推理流程;同时,方案具备完善的数据安全保护与容灾能力,并可灵活扩展,从容应对AI项目指数级增长的数据体量。

在模型优化层面,驿心科技深度融入开源生态。其解决方案为后续在DeepSeek等主流通用模型上的性能调优提供了稳固的底层支撑,能够充分释放模型潜力,实现端到端的运行效率提升,助力客户在市场竞争中构建技术优势。

驿心方案之所以能精准切中AI训练与推理的效能瓶颈,与其创始人吴文昊横跨HPC、云计算与AI领域的复合背景密切相关:

自1999年从清华大学本科毕业赴美,至2008年加入微软,吴文昊的职业生涯始于高性能计算领域。博士期间,他专注于矩阵计算的高性能实现与并行计算MPI协议研究。2008年加入微软后,他负责微软HPC及Azure云的产品管理工作。2011年,作为Azure存储团队的项目经理,他主导了将Mellanox技术引入Azure的关键项目。

2013年,吴文昊离开微软,加入企业闪存市场先锋Fusion-io,并于2015年回国加入旷视科技,自此将事业重心完全转向人工智能领域,直至2020年离开。

基于对产业的多维度洞察,驿心科技目前聚焦于三大核心客户领域:

一是云服务与大模型厂商。这类客户的痛点集中于高昂的自研成本、交付复杂度及客户服务压力,同时他们需要专业的存储方案、独立的网络互联能力、多云数据同步与迁移支持,以及轻量化的客户服务界面。据吴文昊透露,驿心已在某国内头部互联网公司完成技术验证,而该公司在全球范围内仅评估了两家供应商,除驿心外,另一家为美国存储公司。

二是AI研发型企业。涵盖智能汽车、自动驾驶、机器人等垂直行业,其对AI算力与GPU存储能力的需求正呈爆发式增长。这类企业追求利用AI技术快速形成业务闭环,例如自动驾驶,便是通过物理硬件与视觉语言模型服务的结合来实现的。这要求驿心提供专业的AI基础设施解决方案以及VLA模型与数据能力,以支撑其构建垂直行业解决方案。目前,驿心正深化与比亚迪电子的合作,共同为AI研发类客户提供软硬一体化的联合解决方案。

吴文昊也将这部分客户形象地称为“AI工厂”。他指出:“从第一性原理思考,DeepSeek的出现印证了中国正在成为真正的‘AI工厂’。无论GPU产自何处,若要构建AI工厂,最终的供应链与制造能力仍将汇聚于中国。”

第三类是传统行业客户。包括半导体、高端制造、金融、能源等领域,它们需要的是安全、可靠且可弹性扩展的存储解决方案。与AI研发型企业相比,这类企业的AI应用需求增长迅速,正积极向智能化转型,处于渐进式迭代过程中。一旦其AI应用形成商业闭环,它们有望演进为新的AI研发型实体。为此,驿心通过与OEM厂商合作,提供了针对细分行业的存算一体机方案。

未来展望

DeepSeek通过开源与工程化实践,在AGI道路上迈出了关键一步。同时,它也揭示了中美两国在AGI软硬一体化上的不同路径:美国的AGI基础设施发展更倾向于平台化模式,而中国的AGI实践,如DeepSeek,则更强调通过算法驱动的软硬协同优化来降低底层成本、提升整体效率。

驿心的发展路径与此有异曲同工之妙——在海外市场,其与HammerSpace联合提供的方案更偏向水平化、平台化;而在国内市场,驿心则提供了更垂直、深度整合的一体化解决方案。吴文昊认为,正如DeepSeek从模型层向下进行软硬一体优化的方法论所展现的强大影响力,整个AI基础设施领域的软硬协同优化与整合,同样蕴藏着巨大的市场潜力。

那么,驿心与DeepSeek的具体实践有何异同?

吴文昊的总结颇为精炼:“需求是创新之源。对于大语言模型这类超级单一应用,其数据访问模式趋于简化和统一,这反而更容易针对这些固定模式进行深度、极致的优化。”他认为,“在LLM时代,从存储、网络到GPU的数据传输带宽与效率才是关键。因此,我们的AI基础设施能力聚焦于存储与模型两个层面。”

具体而言,在存储层面,针对大模型训练和推理,通过Tier-0方案直接整合GPU服务器内部的存储资源。遵循“如无必要,勿增实体”的原则,这种直接整合不仅有效应对了成本、机房空间和能耗等核心约束,更显著提升了存储性能与数据吞吐带宽。

在模型优化层面,针对DeepSeek等主流模型,驿心结合算力调度、网络优化、分布式KV Cache等技术,提升LLM集群的整体吞吐量。同时,通过可靠的Tier-0/Tier-1存储方案保障模型与数据的持久性与可靠性,并支持模型的后训练优化与推理加速。

目前,驿心科技的最新一轮融资已接近完成。展望未来,公司将在多模态与端侧AI领域寻求更多突破。吴文昊指出:“未来的AI基础设施,特别是AI存储,将迎来巨大增长,因为多模态数据量相比纯语言模型要大数十甚至上百倍。”此外,“端侧AI也需要经历两到三个技术周期才能达到当前语言模型的成熟度。因此,未来在端侧,数据的生成、合成、存储与使用也存在诸多待解课题,这其中同样孕育着新的机遇。”

中国AI行业向AGI的整体迈进,不仅需要算法研究人员的持续突破,也离不开更多像驿心这样具备深厚技术积淀的基础设施团队加入。唯有产学研各方紧密协作,方能真正定义下一代AI基础设施的技术范式与发展方向,这无疑是行业赢得未来的核心竞争力所在。

免责声明

本网站新闻资讯均来自公开渠道,力求准确但不保证绝对无误,内容观点仅代表作者本人,与本站无关。若涉及侵权,请联系我们处理。本站保留对声明的修改权,最终解释权归本站所有。

相关阅读

更多
欢迎回来 登录或注册后,可保存提示词和历史记录
登录后可同步收藏、历史记录和常用模板
注册即表示同意服务条款与隐私政策