文章作者、来源:0x9999in1,ME News
故事要从2012年讲起。
那一年,Andrew Feldman把自己创办的SeaMicro以3.34亿美元卖给了AMD。SeaMicro做的是高密度低功耗微服务器——听起来不性感,但在云计算爆发前夜,AMD愿意出真金白银买下来。
卖完公司的Feldman没闲着。他管自己接下来几年的状态叫"lightly sifting"——轻轻翻找,看看硅谷正在生长什么新东西。
找到了。
2015年,Feldman拉上SeaMicro时期的四位老搭档——Gary Lauterbach、Michael James、Sean Lie和Jean-Philippe Fricker,五个人创办了Cerebras Systems。
他们的想法极其疯狂:把整片晶圆做成一颗芯片。
不是在晶圆上切出几百颗小芯片,而是整片晶圆本身就是芯片。一整块。比iPad还大。
当时业界的反应?不可能。
良率怎么办?散热怎么办?互联怎么办?封装怎么办?每一个环节都是工程地狱。
但Feldman的逻辑很简单:AI训练的核心瓶颈是内存带宽,不是算力本身。GPU之间需要大量通信,数据在芯片之间搬来搬去,效率极低。如果所有计算和存储都在一颗芯片上完成呢?通信开销直接归零。
这不是一个渐进式创新。这是一个架构层面的豪赌。
2016年,Benchmark的Eric Vishria联合领投了Cerebras 2500万美元的A轮。后来的故事我们知道了——Vishria差点没接这个会议。但他接了。十年后,Benchmark持有的9.5%股份在IPO当日价值55亿美元。
风险投资的本质,就是赌对一次。
2019年8月19日,Cerebras在Hot Chips大会上掀开了面纱。
WSE-1——Wafer Scale Engine第一代。1.2万亿晶体管,400,000个AI核心,46,225平方毫米。采用TSMC 16nm工艺,配备18GB片上SRAM,内存带宽9 PB/s。
一颗芯片的面积是当时最大GPU的56.7倍。晶体管数量是最大GPU的57倍。
全世界半导体从业者震惊了。
不是震惊于参数——参数谁都能写。震惊的是,他们真的做出来了。良率问题解决了。散热问题解决了。封装问题解决了。
WSE-1搭载在CS-1系统中,开始向阿贡国家实验室等客户交付。
2021年4月,WSE-2发布。制程升级至TSMC 7nm。
数字翻倍:2.6万亿晶体管,850,000个核心,40GB片上SRAM,功耗15kW。
配套系统CS-2出货,开始大规模部署。美国能源部的多个国家实验室成为早期客户。Cerebras从"能造"走向"能卖"。
2024年3月,WSE-3登场。4万亿晶体管,900,000个核心,44GB片上内存,内存带宽21 PB/s,算力125 petaflops。
官方数据:比英伟达B200多19倍晶体管、28倍算力。
配套系统CS-3面世。但更重要的变化不在硬件参数——而在商业定位的转向。
Cerebras不再只做训练。它瞄准了推理。
为什么推理如此重要?
训练是一次性的。你花几个月训练出一个大模型,训完就结束了。但推理是持续的。每次用户问ChatGPT一个问题,每次调用API生成一段文字,背后都是推理算力在燃烧。
业界共识正在形成:未来AI基础设施的成本,推理将占到80%以上。
而推理的核心指标是什么?速度。延迟。每秒生成多少个token。
这恰恰是Cerebras的主场。
晶圆级芯片的架构优势在推理场景下被彻底释放:没有芯片间通信开销,没有内存墙瓶颈,所有计算在单芯片内完成。
数据说话:
这些不是PPT数字。是Artificial Analysis等第三方机构实测验证的。
推理速度上的碾压级优势,让Cerebras从一个"技术很酷但商业存疑"的公司,变成了一个手握刚需的供应商。
Cerebras的商业化之路,离不开一个名字:G42。
G42是阿联酋的AI和云计算巨头,背后是阿布扎比的主权资本。2023年7月,双方联合发布Condor Galaxy超算网络——计划部署9台互联超级计算机,第一台CG-1即拥有4 exaFLOPs算力。
G42是Cerebras的救命稻草,也是最大的隐患。
2023年和2024年上半年,G42贡献了Cerebras 95%–97%的硬件销售收入。这种客户集中度,在任何估值体系里都是巨大的红旗。
更复杂的是地缘政治。美国外国投资委员会(CFIUS)对G42与Cerebras的关系展开审查。这直接导致了Cerebras 2024年9月首次提交的S-1被长期搁置,最终在2025年10月被迫撤回。
Feldman在LinkedIn上为此道歉:"我们撤回了S-1,但没有解释原因——这是个错误。"
从2024年9月到2025年10月,整整13个月,Cerebras的IPO悬在半空。
这段时间发生了什么?Cerebras在做两件事:
第一,等CFIUS审查通过。最终通过了。
第二,拼命找新客户,降低集中度。
2025年末至2026年初,两笔大单彻底改变了Cerebras的叙事。
OpenAI——2025年底/2026年初,双方签署多年协议:Cerebras为OpenAI部署750MW的晶圆级推理系统,合同价值超过100亿美元,交付期延续至2028年。这是全球最大的高速AI推理部署计划。
这单的意义不仅是钱。是信号。
全世界最大的AI模型公司,选择了Cerebras而不是英伟达来做推理。这在英伟达一统天下的格局里,砸出了一个真实的裂缝。
AWS——2026年3月,双方宣布多年合作。AWS将Cerebras WSE-3部署到自家数据中心,通过Amazon Bedrock向客户提供推理服务。架构上采用"前缀填充用Trainium + 解码用CS-3"的异构方案,号称同等硬件规模下token容量提升5倍。
AWS是第一个承诺采用Cerebras硬件的超大规模云厂商。
两笔大单叠加,Cerebras的客户集中度问题大幅改善。到2025财年,G42的营收占比已从95%降至约24%。剩余性能义务(RPO)高达246亿美元——这意味着未来几年的收入能见度极高。
有了OpenAI和AWS背书,有了盈利的财报,CFIUS审查也已通过——Cerebras在2026年4月重新提交S-1。
时间线:
十天之内,三次调价。认购倍数超过20倍。
5月14日下午1点(东部时间),CBRS在纳斯达克开盘交易。开盘价350美元。盘中最高385美元。收盘311.07美元。
首日涨幅68%。市值约950亿美元。
融资总额55.5亿美元(若承销商行使超额配售权,可达63.8亿美元)。
这是自2020年Snowflake上市以来,美国科技行业最大的IPO。承销团由摩根士丹利、花旗、巴克莱和瑞银领衔。
Feldman手持约5%股份,身家一夜间飙升至34亿美元。硬件技术负责人Sean Lie同样跻身亿万富翁行列。Benchmark持有的9.5%股份当日价值55亿美元。
一场十年赌局的兑现。
发行价三连跳、20倍超额认购、首日暴涨——这些表象背后,有几层逻辑值得拆解:
第一,推理需求的爆发重新定义了市场。
2024–2025年,AI行业的焦点从"训练更大的模型"转向"如何高效地服务用户"。推理成本和推理延迟成为卡脖子问题。Cerebras的架构恰好在这一时刻具备了独特的产品-市场契合度。
第二,OpenAI的大单是信任背书。
在芯片领域,谁选了你比你说了什么重要100倍。OpenAI选择Cerebras做推理,AWS选择Cerebras进入Bedrock——这两件事解决了"技术路线是否被验证"的疑虑。资本市场最怕的不是亏损,而是不确定性。大客户消灭了不确定性。
第三,估值锚定的戏剧性跳跃。
2025年9月Series G:81亿美元估值。 2026年2月Series H:230亿美元估值。 2026年5月IPO定价:564亿美元完全稀释估值。 首日收盘:约950亿美元。
8个月内,估值从81亿跳到950亿。超过10倍。
这不是泡沫逻辑。这是"基本面在8个月内发生了本质变化"——从亏损到盈利,从单一客户到三大核心客户,从CFIUS阴影到审查通过。
第四,AI IPO窗口期的稀缺性。
2024年和2025年,科技IPO市场几乎冰封。投资者手里积压了大量对AI基础设施的配置需求,却苦于没有标的。Cerebras几乎是2026年第一个高质量的纯AI芯片IPO。稀缺性本身就是溢价。
狂欢归狂欢。冷静地看,Cerebras面前仍有几座大山:
客户集中度虽降但未消。 G42占比从95%降到24%是巨大进步,但OpenAI和AWS的大单同样构成新的集中度。如果OpenAI未来自研芯片(这件事几乎确定会发生),Cerebras的护城河有多宽?
英伟达不会坐以待毙。 Blackwell架构已经在追赶推理性能。英伟达拥有完整的生态系统——CUDA、开发者工具链、千万级GPU存量客户的惯性。Cerebras在推理速度上的优势能保持多久?
估值隐含了极高期望。 950亿市值对应2025年营收5.1亿,P/S接近190倍。即便用246亿RPO来佐证未来增长,这个估值也要求公司在未来3–5年实现接近10倍的收入增长。任何执行偏差都可能带来剧烈回调。
制造依赖TSMC。 Cerebras的芯片由台积电代工。晶圆级封装本身就比常规芯片复杂得多,产能受限是长期问题。
Cerebras的故事,本质上是一个关于"反共识"的故事。
在所有人都在把芯片做小的时候,它把芯片做到了一整片晶圆大。在英伟达垄断被视为铁律的时候,它找到了一条绕开GPU架构的路径。在CFIUS审查几乎判了死刑的时候,它活了下来还扭亏为盈。
但资本市场从来不会为过去的英雄主义持续买单。950亿美元的市值,是对未来的预支,不是对过去的奖赏。
能不能接住这个估值?答案不在Cerebras自己手里,而在整个AI推理市场的增速里。
如果推理需求真如行业预期般指数级增长,Cerebras大概率会成为这波浪潮中最锋利的受益者。如果AI投资周期放缓——那市场修正起来,也不会对任何人手软。
但至少在今天,在2026年5月14日这一天,Andrew Feldman手持一颗餐盘大小的芯片站在纳斯达克的屏幕前。
十年。从PPT到950亿美元。
这是属于硅谷的戏剧性,也是属于这个时代的注脚。


