汇丰研究发现“代理AI”工作流中有44%的任务依赖CPU,这是传统AI计算的3-4倍,导致CPU和内存成为制约数据中心算力的最大瓶颈。汇丰研究发现“代理AI”工作流中有44%的任务依赖CPU,这是传统AI计算的3-4倍,导致CPU和内存成为制约数据中心算力的最大瓶颈。

“代理AI”崛起 CPU翻身?

2026/03/09 10:02
阅读时长 7 分钟
如需对本内容提供反馈或相关疑问,请通过邮箱 [email protected] 联系我们。

作者:龙玥,华尔街见闻

在过去三年里,AI服务器市场的叙事逻辑高度单一:谁拥有更多的GPU,谁就掌握了通往通用人工智能(AGI)的钥匙。

然而,随着AI应用从简单的聊天机器人升级为能自动执行复杂流程的“代理AI”(Agentic AI),数据中心的底层算力需求正在发生本质性的“剧变”。

据追风交易台消息,汇丰证券在最新发布的深度行业报告中指出,一个“算力再平衡”的时代已经开启,CPU正重新成为AI数据中心的决策枢纽。

从“聊天”到“干活”:代理AI引发的算力地震

早期的AI模型主要依赖大规模GPU进行并行计算,即我们常说的“暴力美学”。但代理AI的工作流则完全不同,它是一个“超级编排者”。

汇丰研报指出,代理AI不仅需要输出内容,还需要通过检索增强生成(RAG)、访问外部API(如邮件系统、网页搜索、协同办公软件)来完成任务。这些工作涉及大量的逻辑分支、任务同步和多线程处理。

对比数据显示,在代理AI任务中,GPU的并行优势会被削弱,而CPU在多任务处理上的灵活性使其大放异彩。

根据康奈尔大学的最新研究,Agentic AI工作流中约44%的算力依赖CPU,这比传统AI工作流的CPU占比高出3-4倍。CPU不再仅仅是系统的“辅助者”,而成了算力引擎中不可或缺的“大脑”。

为何服务器出货预期持续飙升?供给远小于需求

这种结构性的算力需求变化,直接转化为对服务器出货量的强劲支撑。

汇丰证券将2026年全球服务器出货量的同比增长基准预期大幅上调至20%(原为4%),这一预测远超市场普遍预期的10%-15%。更为惊人的是,汇丰认为市场的“潜在需求”甚至高达60%。

为什么市场没有完全兑现这些需求?

主要原因在于供应链的“卡脖子”。报告强调,目前CPU和DRAM内存供应缺口高达30%-40%,SSD、电源芯片等核心组件也面临10%-30%的供给不足。

这意味着,未来两年全球服务器出货增长将是受限后的“挤牙膏式”释放,这种持续的供应短缺导致积压订单大量存在,不仅保障了2026-2027年的出货逻辑,更让汇丰确信全球服务器增长周期有望延伸至2028年。

资本支出大爆发:《大漂亮法案》带来的“额外燃料”

支持这一轮硬件狂潮的,不仅是技术升级,还有政策红利。

根据汇丰的测算,随着美国《大漂亮法案(One Big Beautiful Bill Act)》的实施,企业购买数据中心资产(包括服务器)可享受100%的加计折旧和即时研发费用扣除。这为云服务商(CSP)的硬件投入提供了极强的财务正向激励。

汇丰预测,主要云服务商(包括Google、微软、亚马逊、Meta和甲骨文)的2026年合计资本支出将达到7430亿美元,同比增长81%。

这种资金注入的去向发生了结构性偏移:2025年,CSP约35%的资本开支投向服务器;而到2027年,这一比例将跃升至59%。这种从“拿地盖楼”向“购买算力设备”的资源倾斜,精准地锁定了对服务器供应链的利好。

谁在受益?供应链的“再平衡”红利

市场风格正在从单纯的“GPU逻辑”转向更加平衡的“计算节点价值链”。

汇丰指出,随着CPU在机架中的价值占比提升,服务器ODM(原始设计制造商)及关键组件供应商将成为这场算力再平衡的核心受益者。

总结而言,这场算力军备竞赛已进入“深水区”。过去是“谁拥有显卡谁就赢”,未来则是“谁能处理好算力分配谁就掌握了效率”。

代理AI驱动的CPU需求回暖,不仅为服务器市场注入了长期的确定性,也为投资者勾勒出一条清晰的硬件升级逻辑线。

来源:金色财经

免责声明: 本网站转载的文章均来源于公开平台,仅供参考。这些文章不代表 MEXC 的观点或意见。所有版权归原作者所有。如果您认为任何转载文章侵犯了第三方权利,请联系 [email protected] 以便将其删除。MEXC 不对转载文章的及时性、准确性或完整性作出任何陈述或保证,并且不对基于此类内容所采取的任何行动或决定承担责任。转载材料仅供参考,不构成任何商业、金融、法律和/或税务决策的建议、认可或依据。