百度李彦宏谈 DeepSeek:大模型推理成本每年降低 90% 以上
百度李彦宏谈 DeepSeek:大模型推理成本每年降低 90% 以上
2月11日,“世界政府峰会”在阿联酋迪拜正式拉开帷幕。峰会期间,百度创始人李彦宏与阿联酋人工智能部长展开了一场深度对话,其中关于AI模型成本趋势的发言,尤其值得业内关注。
李彦宏在交流中指出,一个经常被忽略的事实是:驱动创新的核心引擎,往往不是单纯的技术突破,而是成本的持续下降。这一点不仅适用于人工智能或整个IT行业,其实在大多数科技领域都是如此。道理很简单,一旦成本降到某个临界点,对应的生产力便会获得同等量级的释放,整个应用生态也就随之打开了。
回顾历史,我们有经典的摩尔定律作为参照——每18个月,芯片性能翻倍而价格减半。但今天AI领域,特别是大模型的进化速度,似乎正在创造新的纪录。李彦宏给出了一个更惊人的判断:目前,大模型的推理成本正以每年超过90%的幅度在降低。这意味着,去年还需要高昂代价才能调用的智能,今年可能就变得触手可及,这种降本速度无疑将极大地加速AI的普惠化进程。
话说回来,这种趋势已经不只是理论预测,实际应用案例正在悄然落地。早前有消息显示,百度的文小言(原文心一言)App已经接入了DeepSeek-R1模型,最直观的体验升级就体现在其“拍照解题”功能上。用户现在使用该功能时,能够清晰地看到系统给出的解题步骤和思考过程,这种分步推理的呈现方式,与DeepSeek模型特有的“思维链”技术特征相当吻合。这或许可以看作是高能力模型成本下降后,开始向实用型应用渗透的一个早期信号。
