首页 > 实时讯息 >

百度后手出牌,如何应对被重构的大模型格局

  • 0次浏览     发布时间:2025-04-25 18:59:00    

新一轮AI卡位战中,人们对百度的质疑多集中于百度是不是懈怠跑不动了,从目前的事实进展来看,百度的每一个动作里,仍然藏着野心和激情

文|吴俊宇

编辑|谢丽容

2025年初,DeepSeek-R1搅乱了中国的大模型竞争格局。

过去三年行业里有一个基本共识——AI大模型只是科技大厂的游戏,创业公司很难出头。一位中国科技公司大模型领头人认为,此前的状态是几个大厂不紧不慢地赛跑。“现在赛道上突然横插进一匹黑马,格局完全乱了。DeepSeek在倒逼大厂重拾紧迫感。”(文章详见)

DeepSeek不仅打破了大厂垄断大模型的共识,还引发了其他连锁反应:

其一,大模型的竞争焦点从训练走向推理,低成本、高性能的模型变得更重要。

其二,AI应用正在爆发,固化多年的互联网应用格局可能会出现新的生机。

对大厂来说,现在比两年前大模型爆发初期的机会更多了,但竞争难度在变大。前两年,它们只需准备万卡算力、训出千亿参数的模型,然后看别人“卷”应用。现在,它们得买十万卡的算力,训又好又便宜的模型,还要自己下场在To B(面向企业级)、To C(面向消费者)两个方向同时探索AI应用。

DeepSeek大火之后,阿里、字节跳动不仅迅速推出了对标DeepSeek的新模型,AI(人工智能)战略也在悄然调整,全面拥抱AI大模型应用落地。

百度2023年初在中国大模型市场一度是领跑者,它在中国率先发布了面向普通消费者的大语言模型。2025年DeepSeek爆发后,百度的应对看起来没有那么快速直接。

但是,市场始终关心这些问题:

长跑两年,百度在大模型赛道处于何种位置?百度的大模型策略是否有所调整?百度的整体AI战略又将如何应时而动?

4月25日的百度开发者大会,百度后手出牌,回答了这些问题——百度目前在模型、应用、算力三个方向仍在有条不紊地推进。

百度不仅发布了文心大模型4.5 Turbo和文心大模型X1 Turbo两款新模型,还发布了高说服力数字人(也就是更逼近真人的数字人)、多智能体协作应用“心响”等一系列新款AI应用。截止午间,百度集团(9888.HK)股价涨幅超5%。

(李彦宏发布文心大模型4.5 Turbo和文心大模型X1 Turbo)

百度创始人兼CEO(首席执行官)李彦宏在这次大会的演讲中提到了几个重要判断:

其一,当前开发者做AI应用的一大阻碍,就是大模型成本高、用不起。成本降低后,开发者和创业者们才可以放心大胆地做开发,企业才能够低成本地部署大模型,最终推动各行各业应用的爆发。

其二,没有应用,芯片、模型都没有价值。模型会有很多,但未来真正统治这个世界的是应用,应用才是王者。

其三,AI应用井喷的时代就在眼前,它可能是智能体、小程序、App(移动应用)等各种AI应用形态。

继续卷模型,但策略变了

卷模型,对百度来说,这件事情依旧是确定的。因为基础模型能力的竞争始终没有结束。

虽然“Scaling Law”(规模定律,模型性能由算力、模型、数据规模决定)近一年在放缓,但没有任何一家大公司因此放弃训练基础模型。因为,模型能力始终是决定客户规模的核心因素。

一位科技公司算法负责人今年1月曾对我们表示,大模型是长跑,模型每3个-6个月就会有一轮重大升级。长期迭代并保持性能领先很重要。一旦模型能力落后,就会被竞争对手抢走客户。

2025年,大模型的另一个方向是,降低算力成本。一位中国头部云厂商大模型业务负责人今年3月对我们表示,2025年中国大模型的发展主脉络之一仍然是提升模型精度并降低算力成本。中国客户最希望用到的模型,简单粗暴地说就是“多、快、好、省”。

因此,百度此次发布了文心大模型4.5 Turbo和文心大模型X1 Turbo。这是3月16日发布的文心大模型4.5、文心大模型X1的升级版。它们主打三大特性:多模态、强推理、低成本。

这两款模型的核心特点是定价比市面上其他同等规格的主流模型更低。其中,文心大模型4.5 Turbo的输出价格仅为DeepSeek-V3的40%,仅为OpenAI o4-mini的10%。文心大模型X1 Turbo的输出价格仅为DeepSeek-R1的25%,仅为OpenAI o3的1.4%。

为什么要不断把大模型的成本降下来?李彦宏解释,开发者做AI应用的一个很大阻碍就是成本高,用不起。而创新的本质往往就是成本下降。

这四个月,百度看似动作不多。百度也不是目前跑得最快、声量最大的企业,但水面下的实际情况是——百度是大模型的受益者,而且仍然是大模型牌桌上的少数玩家之一。

IDC数据显示,2024年12月中国大模型日均调用量9522亿次,2024年6月这个数据只有963亿次。也就是说,2024年6月-12月中国大模型日均调用量增长了近10倍。

百度的文心大模型2024年的日均调用量也在快速增长,它的增速跑赢了市场大盘。2024年12月,百度文心大模型日均API(应用程序接口)调用次数是16.5亿次,相比2023年12月的0.5亿次增长了33倍。不过,百度没有披露日均Token调用量。

一位大模型技术人士分析,日均Token调用量这个数据很重要。它可以直接估算模型厂商的收入情况。近一年大模型调用的上下文长度一直在增长。理论上看,百度的日均Token调用量会超过33倍。

百度的云业务过去一年受益于大模型的发展,业绩也在快速增长。百度智能云2024年营收218亿元,同比增长17%。尤其是在2024年四季度,营收71亿元,同比增长26%。这个高增速,目前在国内云厂商之中是少见的。

这和百度在大模型领域坚持长期投入密不可分。但百度的模型策略的确有所调整——从过去的闭源转向开源。这几乎是180度的转弯(文章详见)。

百度过去选择闭源的逻辑是,开源模型约等于免费,它没有商业模式。但闭源模型商业模式简单清晰,理论上选择闭源才健康可持续。从商业逻辑来看,这个判断是正确的。

现实情况是,2024年中国市场开启了大模型价格战,闭源模型短期内很难盈利。免费的开源模型反而容易获取市场声量。它虽然无法获得直接收入,却意外形成了“羊毛出在猪身上”的商业路径。

某科技公司的一位战略规划人士透露,2024年中国各个模型厂商的模型调用收入普遍只有千万元、数亿元。这部分收入寥寥无几。但模型调用带来的算力消耗、公共云四大件(计算、存储、网络、数据库)收入增长,反而更可观。因此,阿里云等厂商宁愿用免费开源的方式,刺激市场需求。

尤其是在DeepSeek-V3/R1这两款开源模型走红后更是如此——任何人都能下载、部署、使用,因此几乎所有云厂商都接入了它们,并且在短期内获得了算力消耗和收入增长。DeepSeek-V3/R1这类开源模型借此获得了更大的市场声量。这种情况下,市场对闭源模型的误解容易加深。

今年2月,李彦宏在2024年财报发布后的投资者电话会中提到,大家从 DeepSeek学到的一点是,开源最好的模型可以极大促进应用。模型开源后,人们出于好奇自然会想要尝试,这有助于应用广泛落地。

一位百度人士对我们表示,百度的态度其实是开放的,愿意根据市场实际情况动态调整。模型开源,目的是让更多开发者了解文心大模型的价值,进而扩大它的影响力。

三个AI应用发力点

随着推理算力成本不断下降,2025年AI应用爆发的趋势已经非常明显。

在这个大背景下,几乎每一个科技大厂都把AI应用的战略权重提高了。百度也是如此——不仅自己在押注一些重点的AI应用赛道,还在帮助开发者降低AI应用的开发门槛。

中国的应用生态已经呈现出了类似2012年移动互联网早期的活力。中国移动互联网市场调研机构QuestMobile数据显示,截至2025年2月底,AI原生App用户规模达到2.4亿,比1月增长88.9%。原生AI应用用户黏性也出现了快速增长,2月月人均使用时长和使用次数分别达到113.7分钟、52.4次。

钉钉、飞书、WPS、美图秀秀、百度文库、百度网盘这些老应用近半年在加快叠加新的AI能力,Manus这类原生AI应用也在迅速爆发。以百度文库为例,AI付费功能用户已超过4000万人,AI月活用户达到9700万。

与此同时,一批月活跃用户过亿、过千万的AI原生应用正在诞生。它们分布在AI聊天、视频生成、写作、搜索等各个领域。

为应对AI原生应用爆发的态势,百度正在三个方向发力。

其一,拥抱MCP(Model Context Protocol,模型上下文协议)开放标准,并基于这个标准优化自己的开发工具。

MCP是一套全世界通行的智能体开发标准。它最早在2024年11月被亚马逊投资的明星AI创业公司Anthropic提出并开源。目的是形成一套开放、标准的规范。它让大模型能接入各种外部数据和工具(如业务软件、数据库、代码库等),大模型能够可以“即插即用”调用这些模块的数据。

简单理解,它就像是手机、电脑的USB-C传输接口。这套标准后来很快被微软、谷歌、AI创业公司OpenAI,以及国内的百度、阿里、腾讯、字节跳动等公司接受了。它逐渐成为事实上的标准。

因此,百度智能云千帆AppBuilder目前兼容了MCP协议,开发者可以快速调用MCP生态中的工具。它不仅可以简化应用开发的流程,还意味着应用还能被其他工具兼容。

一种观点是,现在基于MCP开发应用,就像2010年开发移动App。尤其是目前大量企业内部沉淀数据尚未被充分利用。基于MCP开发的应用,可以直接访问和分析这些数据,充分挖掘商业价值。

其二,布局重点AI应用赛道。比如高说服力的数字人、多智能体协作应用“心响”、无代码编程工具秒哒等、内容操作系统“沧舟OS”等一系列应用。

尤其是多智能体协作,它被认为是下一个高价值的AI应用方向。李彦宏认为,未来的AI应用将从回答问题走向任务交付,而任何一个复杂任务的交付,都需要多智能体的协作来解析需求、分拆任务、调度资源、规划执行,最终交付结果。

事实上,这个判断已经是事实。一位中国互联网创业公司高管今年3月曾对我们表示,在这一轮Manus出圈之前,硅谷的智能体就已经很热了。一批创业公司正在卷智能体,甚至是把多个智能体结合在一起完成复杂任务。它的好处是,多智能体应用可以自动规划并完成工作。

其三,帮助开发者进行AI应用分发,并为开发者提供应用分发和收益分成的机制。

面对AI应用井喷的状态,百度搜索开放平台发布了“AI开放计划”,通过各类内容和服务分发机制,为智能体、小程序、独立App等AI应用开发者提供流量和收益。

对百度来说,无论是自己下场做AI应用,还是帮助开发者做好AI应用,都是不错的选择。

前者如果跑通,意味着可以跑出一批AI时代工具类产品。甚至是做出AI时代的超级App,抢到AI时代的“船票”,但这个概率比较小。后者则意味着,更多的开发者会使用百度的云服务、工具产品,百度智能云会因此做大——它的确定性相对更大。

靠工程手段打破算力瓶颈

AI应用爆发,意味着算力消耗将更多、更快——而且是100倍以上的增长。

英伟达创始人黄仁勋3月在GTC(Nvidia GPU科技大会)2025预测称,随着未来推理算力效率不断提升,10倍增长的Token数量和10倍的增长计算速度,将让2025年的算力消耗增加100倍。我们了解到,阿里、字节跳动近1年日均Token调用量增长已经超过100倍。

然而,中国始终面临着算力断供的风险。由于出口管制,今年4月之后中国已经无法通过正常渠道获取英伟达的H20等芯片——算力瓶颈始终是中国算力产业的“达摩克利斯之剑”。事实上,DeepSeek给行业带来的重大启发就是,如何在算力受限的情况下,训练出性能不俗的模型,并且降低它的推理成本。

百度的应对策略是,通过自研算力和工程优化等方式打破算力瓶颈、降低算力成本(文章详见)。

2025年以来,百度智能云连续成功点亮自研昆仑芯三代P800芯片的万卡集群、三万卡集群。目前百度拥有万卡集群管理和部署能力,可以进一步降低模型训练、推理成本。理论上,自研芯片采购量足够大,成本足够低时,可以摊薄研发成本,进而得到更有性价比的算力。

百度还在提高现有集群的使用效率——其中既包括训练效率,也包括推理效率。

模型训练通常由千卡、万卡集群完成。单卡故障会影响集群运作。集群越大、芯片越多,故障率就越高。2024年9月,百度的一位资深系统架构师对我们分析,有效AI算力=单卡算力有效率×并行计算有效率×有效训练时间。在一些极端情况下,模型训练过程中会浪费一半的算力资源,因此如何避免浪费是一个重要课题。

根据百度方面的说法,百度的百舸计算平台等调度工具可以解决这个问题。目前,百度在万卡集群上实现了99.5%以上的有效训练时长,两种芯片混合训练大模型的效率折损控制在5%以内。

百度集团执行副总裁、百度智能云事业群总裁沈抖在百度开发者大会解释,为降低模型推理成本。百舸采用了通过PD分离(模型输入和输出分离)架构、大规模MoE/EP(专家模型和专家并行)架构等方式,进一步提升推理性能、降低推理成本。

我们了解到,PD分离架构的好处是,可以在多轮对话中降低重复计算,最终节省算力。MoE/EP架构的好处是,每次调用模型时只激活一小部分专家模型和参数,并且把每个专家模型部署在不同AI芯片上并行计算,进而减少单卡压力,提高资源利用率。

除了优化集群效率,百度还在通过“超节点”这种硬件工程手段突破算力集群的峰值性能。

过去,传统的AI服务器通常只会搭载八枚AI芯片。它带来的问题是,服务器间的互联性能损耗很大。但“超节点”的做法是,把数十枚,甚至是数百枚AI芯片集成在一个机柜中。再通过在芯片间构建高带宽、低时延的互连网络,降低多枚芯片并行计算的通信损耗,最终提升整体算力效率。

2025年以来,百度昆仑芯实现了64枚P800芯片的超节点方案。按照百度方面的说法,64枚P800芯片的超节点方案,可以把卡间互联带宽提升到原来的8倍,单卡的训练性能提升10倍,推理性能提升13倍。

事实上,“超节点”这种技术方案目前只有少数几家公司在探索。比如,华为系列近期实现了384枚昇腾910系列芯片的超节点方案。英伟达去年发布的GB200 NVL72,就是把36 枚Grace CPU和72枚Blackwell GPU集成在一起。

这种技术方案并非完美,它有一定的取舍。我们从部分芯片技术人士了解到,新的工程架构会让每个FLOP(每秒所执行的浮点运算次数)的功耗大幅增加。但对中国的电力资源充沛、算力资源受限,因此用电力换算力的做法可以在有限空间内,榨取更多算力。

一位算法工程师的观点是,在芯片采购受限的情况下,中国科技公司打破算力瓶颈的少数方法之一,就是靠软硬件工程手段榨干每一枚芯片的性能。

新一轮AI卡位战中,人们对百度的质疑多集中于百度是不是懈怠跑不动了。从目前的事实进展来看,百度的每一个动作里,仍然藏着野心与激情。



相关文章

  • 百度后手出牌,如何应对被重构的大模型格局

    新一轮AI卡位战中,人们对百度的质疑多集中于百度是不是懈怠跑不动了,从目前的事实进展来看,百度的每一个动作里,仍然藏着野心和激情文|吴俊宇编辑|谢丽容2025年初,DeepSeek-R1搅乱了中国的大模型竞争格局。过去三年行业里有一个基本共识——AI大模型只是科技大厂的游戏,创业公司很难出头。一位中

    2025-04-25 18:59:00
  • 国网华安县供电公司:营销智能预警,压缩全量停电时长

    “罗溪村7号配变有1用户停电,请到现场核实。”4月24日,国网华安县供电公司华丰镇供电所人员借助用电采集2.0系统,开展全量停电监测工作。今年来,华安县供电公司秉持“不停电就是最好的服务”,依托HPLC电能表停电信息主动上报技术,深化运用用电信息采集2.0系统停电监测功能,首创应用RPA智能机器人主

    2025-04-25 18:04:00
  • 全球连线|探秘零碳岛(上集)——一场零碳邂逅

    一座承载绿色梦想的岛屿一次充满新奇的探索一场解锁零碳密码的走访新华社记者与“零碳生活体验官”耶果,深入大陈岛,揭示零碳海岛的奥秘!从中国东部沿海浙江省台州市出发向东29海里,就能抵达到大陈岛。这里曾是中国第一代风力发电机的试验场,如今,一场绿色发展能源革命在这里展开。新华社记者黄爱萍和“零碳生活体验

    2025-04-25 15:58:00
  • 华鼎冷链:从成本中心到价值中心 转型之道

    【中国互联网产业十年发展带来行业转型升级启示】在传统冷链物流体系中,企业习惯机械执行客户指令,缺乏思考背后逻辑,将冷链物流视为纯粹执行环节,忽视其在供应链中的潜力。 真正的客户思维是深度理解需求,提供高效解决方案。如连锁餐饮品牌要求设置省级仓储中心,其本质是保证品质、优化成本和速度。 华鼎冷链科技基

    2025-04-25 13:03:00
  • 华为云将发布盘古行业推理大模型;商业航天创新联合体成立|数智早参

    每经记者:杨煜 每经编辑:马子卿丨2025年4月25日 星期五丨NO.1 华为云将发布盘古行业推理大模型4月24日,华为宣布华为开发者大会(HDC 2025)将于6月20日至22日在东莞松山湖举办。此次大会,华为云将发布包括盘古基础大模型、盘古行业推理大模型、昇腾AI云服务基础设施在内的最新进展。点

    2025-04-25 08:03:00