投中网
搜索
登录 | 注册
投中网  >  资本市场  >  正文

英伟达劲敌,重启IPO

投中网   |   韦香惠
2026-03-02 10:32:25

“AI是否过热”不断被反复讨论。

宣布新一轮融资不到一个月的时间,美国AI芯片超级独角兽Cerebras再次被传出IPO计划。据外媒报道,该公司一直在与潜在投资者会面,上市最早可能在今年4月进行。

今年2月初,Cerebras通过一轮私募融资筹集了约10亿美元,包括新投资,使公司估值达到230亿美元。按此计算,Cerebras已经超过不久前被英伟达以200亿美元收购的Groq。

成立不到三年的AGI投资基金3C AGI Partners(以下简称“3C”),是少数同时押注Cerebras与Groq的机构之一。创始人王康曼认为,从数字上看,市场确实在讨论Cerebras的IPO估值可能高于Groq被英伟达收购的大致水平,但两者逻辑不同。Groq更像被并入GPU帝国的“关键模块”,Cerebras更像一家具备完整系统与商业闭环的“独立基础设施平台”,估值反映的是长期自由现金流与平台溢价,而不是同一维度的简单对比。

在最新一轮融资消息传出前,OpenAI已同意购买Cerebras到2028年的750兆瓦计算能力,价值约100亿美元。此前,Cerebras的客户订单主要依赖阿布扎比的AI公司G42,还曾因与其复杂关系遭到联邦政府审查,使得之前的IPO计划停滞。至2025年底,Cerebras已剥离G42投资者身份,成功解除监管障碍。

当下,全球AI军备竞赛持续升温,算力之争不断抬高对AI基础设施资产的估值。围绕“是否存在泡沫”的讨论,也一再被提前推至台前。对于这一问题,王康曼将其拆分为两个维度:第一,泡沫集中在哪;第二,谁有能力穿越泡沫。

四个月估值翻三倍

无论国内还是海外,加速布局自主AI基础设施已成为行业共识,芯片及相关算力基础设施企业的估值因此持续走高。

去年,寒武纪、摩尔线程与沐曦股份相继登陆资本市场,带来可观的账面回报。进入2026年,海外AI公司同样加快融资节奏。不久前,OpenAI宣布完成了1100亿美元的新一轮融资,亚马逊、英伟达和软银为主要投资者。Sam Altman强调,他的大部分精力都放在努力获取更大规模AI算力基础设施,以满足ChatGPT及OpenAI其他AI应用产品的天量级别需求。

Cerebras在2月份完成的10亿美元融资之前,最近一轮融资是2025年9月底的G轮,投后估值为81亿美元。短短约四个月时间,该企业的估值将近3倍。

类似的跃迁在之前Groq被英伟达收购的案例当中就已出现过。当时,英伟达给出的价格是200亿美元现金,较Groq上一轮融资差不多也翻了3倍。我们当时分析,英伟达出高价的焦点在于对其GPU竞争护城河的巩固。随着AI大模型重心从训练转向推理和AgenticAI,传统GPU在延迟和能效上的短板日益凸显。

这一逻辑同样体现在王康曼对Cerebras的投资判断中。她表示,投资Cerebras,既不是跟风,也不是简单地押注一家公司,而是押注一条从“AI1.0”到“AI3.0”的算力演进路径:当模型规模和推理负载指数级上升时,传统GPU架构一定会在内存带宽、通信和能效上遇到天花板,这恰好是Cerebras的系统级创新切入点。

王康曼回忆八年前第一次见Cerebras创始人Andrew Feldman时,对方能把从Transformer到foundation model,再到未来原生AI应用的算力需求演进,讲得极其清晰,而且反推回去,解释为什么需要一块“违背常识”的巨型单片WSE,而不是多卡堆叠的传统路线。

对于Cerebras的投资,王康曼更愿意相信是一次基于一线工程实践的“反共识创新”,而不是单纯的“反对主流”。原因是Cerebras在每一代WSE上都给出了非常硬的指标;包括单芯片内存容量、有效算力和在主流大模型上的训练/推理实测吞吐,而且这些指标与它的物理架构是一一对应的,而不是单纯依赖软件调参。

“我们花了很长时间测试他们的架构,包括在片上放下上百倍于GPU的SRAM、怎样在单芯片上形成近似“数据中心级”的互联拓扑,这些都是超出常规半导体项目的技术尽调深度。”她说。

挑战英伟达

在IPO前夕,Cerebras还与OpenAI达成合作协议,承诺在2028年前为其提供750兆瓦的算力支持,订单的价值超过100亿美元。这被外界认为是OpenAI首次如此大规模地在推理层“去英伟达化”。

从她所理解的技术逻辑来看,OpenAI选择在750MW规模上引入Cerebras,有几个非常硬核的动机:

第一,端到端推理性能与TCO:对于长上下文、长输出的大模型应用,传统多卡GPU集群在通信、内存和能效上的损耗非常可观,Cerebras把计算、存储和互联集中在一块WSE-3上,可以在整体系统TCO上给出明显差异,这已经在多个模型上用实测数据验证过,而不是理论推演。

第二,体系多样性和供应安全:OpenAI不可能把自己全部命运押在单一GPU供应商和单一架构上,引入Cerebras这样的异构算力,是它构建长期算力弹性、降低地缘和供应链风险的重要一环。

第三,为下一代原生应用预留空间:Cerebras的架构尤其擅长实时、高带宽的长输出推理,这恰好对应OpenAI在Agent、复杂工具调用和多模态交互上的中长期方向,它需要一个在“实时性”和“规模化”之间找到更好平衡的新平台。

至于英伟达是否掉队,王康曼判断这是AI计算进入多元基础设施时代的自然结果。NVIDIA仍然会在通用GPU计算、现有CUDA生态和大量训练任务上扮演绝对核心角色;同时,像Cerebras这样的非共识架构,在特定高价值场景里提供数量级差异的体验和经济性,成为超级平台(比如OpenAI)的第二曲线。

过去很长一段时间,Cerebras的客户订单高度依赖G42,现在与英伟达的合作在一定程度上可以被视为这家初创公司正在经历“从单一大客户走向多元客户”的过程,对早期集中度风险的主动对冲。

不过,需要注意的是,Cerebras依然面临其他挑战。其晶圆级芯片制造工艺复杂,良品率和产能扩展难度大,供应链管理和成本控制压力显著。同时,NVIDIA作为AI芯片市场的绝对领导者,靠着成熟的生态系统CUDA而积累下来的广泛的客户基础,Cerebras要实现规模化竞争尚需时间和资源积累。

电子马还是汽车?

为信仰充值,AI时代是否存在泡沫,几乎已成为资本市场的固定议题。尤其是在OpenAI、Anthropic等公司估值持续抬升、一级市场融资屡创新高的背景下,“AI是否过热”不断被反复讨论。

在王康曼看来,真正的泡沫更多聚集在应用层,而且具有很强的结构性。如今,几乎任何团队都可以打出“AI公司”的标签,但不少项目仍停留在相对有限、甚至偏旧的人类工具思维上-让AI写邮件、做客服、生成图片,更多是在既有流程中做效率叠加,而非重构流程本身。却很少有人严肃思考一个问题:当AI能力持续跃迁后,最大的用户是否会变成AI本身?当AI开始为AI生成任务、制定协议、形成新的协作网络,应用形态是否还会沿用今天的人机交互逻辑?

她认为,当前应用侧的泡沫,至少体现在三个方向:第一类,是那些产品本身所依托的组织结构和工作方式就会被AI时代淘汰的业务,很可能会被更智能、更端到端的系统直接重写,连“被优化的流程”本身都不再存在。

第二类,是以过程计费而非结果计费的服务型公司,例如很多按工时、按席位、按调用次数收费的SaaS公司。在强大模型和智能体的加持下,真正具有竞争力的模式,必然会越来越向按效果和价值产生迁移。

第三类是将AI标签贴上弱自动化产品,嵌入现有模型优化部分功能的所谓“AI原生应用”。它们仍在模仿人类智能,而非设计面向AI的未来世界,更像加了AI滤镜。王康曼认为,真正颠覆性场景将在AI为AI设计工具和机制时出现。

为此,她用了一个比喻:现在很多应用公司做的是在工业革命之初设计“更快更漂亮的电子马”,而真正改变世界的,将是那一代完全不按“马”的逻辑设计的汽车。眼下应用侧的大量产品形态,本质上还是在给旧世界贴上“AI皮”,而不是为一个“AI–AI交互”的新世界设计原生形态,自然会积累大量泡沫。

相比之下,那些在物理层、架构层、编译器和系统软件层重写算力栈的公司,包括Cerebras、Groq这一类,虽然在账面估值上看起来也不便宜,但试图解决的是,在一个由AI自主协同、彼此调用的世界里,算力如何在极端吞吐、长上下文和更高能效下运行,这决定的是未来几十年的“数字底座”,而不是某一个短期应用热点。

因此,王康曼更倾向于将2026年的AI周期定义为一种“结构性泡沫”。应用端的“电子马公司”数量庞大、估值密度极高;而真正为“汽车时代”铺路、造引擎的基础设施玩家反而稀缺。

“有没有泡沫?”作为投资人,王康曼的答案是“一定有”,但她认为,关键问题不在此,而是判断在给一辆电子马车付钱,还是在提前买一张通往真正汽车时代的船票。在她看来,Cerebras更接近后者。


网站编辑: 郭靖
本文为投中网原创文章,转载或内容合作请点击转载说明,违规转载法律必究

0

第一时间获取股权投资行业新鲜资讯和深度商业分析,请在微信公众账号中搜索投中网,或用手机扫描左侧二维码,即可获得投中网每日精华内容推送。

发表评论

 / 200

全部评论

—— 没有更多评论了 ——
—— 没有更多评论了 ——
联系我们 欢迎投稿
  • 投中网
  • CVS投中数据
  1. 创新经济的
    智识、洞见和未来

  2. 投资人都在用的
    数据专家

返回顶部