壁仞科技2025年营收10.35亿元、三年增16倍,折射国产AI芯片从技术突破走向系统交付。对照特斯拉软件与数据闭环路线,读懂汽车AI下一阶段的胜负手。
国产AI芯片三年增16倍:对比特斯拉软件路线的关键差异
2026年的AI行业,有个很“反常识”的现象:很多人盯着大模型的参数规模和应用层的热闹,但真正决定落地速度的,往往是更底层的东西——算力芯片与系统级集群能力。3月30日港股盘后,壁仞科技发布上市后首份财报:2025年营收10.35亿元,同比增长207.2%;毛利5.57亿元,毛利率53.8%。更醒目的,是它在2023—2025年间把营收从0.6亿元拉到10.35亿元,三年增长超16倍。
这组数字不只是一家公司的“业绩兑现”,更像一张切片,展示了中国AI战略的一个核心特征:硬件底座的国产化与系统化在加速。如果把它放到“Tesla 与中国汽车品牌在人工智能战略上的核心差异”这个话题里,你会发现对照非常鲜明——特斯拉更像软件与数据驱动的系统集成商,而中国生态里正在出现越来越多像壁仞这样的“硬件底座提供者”,它们把AI的下限抬高,把大规模部署的确定性做出来。
我更愿意用一句话概括:**特斯拉的AI优势在“数据闭环+系统集成”,中国AI优势正在补齐“可供给的算力底座+工程化交付”。**两条路线不冲突,但会在汽车智能化的下一阶段正面碰撞。
国产算力进入“智能体时代”,芯片从选项变成刚需
**智能体(Agents)让算力需求的形态变了:从“问一次算一次”,变成“持续在线、频繁推理与自我修正”。**RSS文章提到2026年“OpenClaw”带动Agents元年,“养龙虾”成了技术黑话。更关键的量化信号是:据国家数据局披露,2026年3月我国日均Token调用量突破140万亿,较2024年初增长超1000倍。
这意味着两件事:
- 推理负载占比持续上升:模型不止训练一次就结束,推理会变成“长期成本中心”。
- 系统调度与集群效率决定实际成本:单卡性能重要,但更重要的是“跑起来以后”——互联、通信、调度、容错、利用率。
对汽车行业来说,这个变化会直接映射到“车端+云端”的AI架构:
- 车端需要更强的实时推理(驾驶、座舱、多模态交互);
- 云端需要低成本的高频推理(仿真、训练、数据回放、智能体工具链)。
当推理变成主战场,可获得、可扩展、可稳定交付的算力就从“加分项”变成“生存线”。这也是为什么国产AI芯片的商业化进展,会开始影响整车厂和供应链的AI路线选择。
壁仞财报透露的,不只是增长,还有“工程化能力”
回答先行:壁仞这次财报最大的信号,是它把“技术突破”推进到了“可规模化交付”,并开始释放经营杠杆。
业绩三要素:规模交付、毛利稳定、亏损不扩大
财报核心数据非常清晰:
- 营收:10.35亿元(2025年),同比+207%
- 毛利:5.57亿元,同比+210.8%,毛利率53.8%
- 经调整亏损:8.74亿元(在高强度研发下没有同步扩大)
这背后对应的是硬科技公司最难的三件事:
- 从样品到量产:文中提到BR10X系列规模化量产与交付、多个千卡集群交付。
- 从“能跑”到“好用”:适配效率决定客户是否愿意迁移。
- 从堆研发到释放杠杆:2025年研发投入14.76亿元、近三年累计研发超31.89亿元,但亏损没有失控,说明收入在摊薄固定投入。
如果你关注“人工智能在半导体与芯片设计”这条主线,这种转折很典型:AI芯片竞争的终局不是“纸面指标”,而是“交付能力+软件栈+系统工程”。
“Day 0 适配”为什么值钱:软硬协同就是商业化阀门
文章提到壁仞已适配 DeepSeek V3/R1、MiniMax M2、智谱 GLM 等国产SOTA模型,且多个模型实现“Day 0”同步适配。
把它翻译成客户语言就是:
- 不用大面积重写算子;
- 不用为了某个芯片改一套训练/推理流程;
- 能更快把模型上线,把算力吃满。
我见过不少团队在国产芯片迁移上踩坑,真正拖慢进度的不是“芯片算得动吗”,而是:算子、编译器、通信库、监控、容器化、任务调度这些工程细节的“最后一公里”。所以适配速度,本质上是商业化的阀门。
从“单卡性能”到“超节点”:这一步对汽车AI尤其重要
结论先讲:智能体与大模型推理时代,比的不是单卡峰值,而是系统级吞吐与扩展性;超节点与高速互联会成为成本分水岭。
壁仞提到的“光跃 LightSphere X”方案,基于光互连与分布式光交换(dOCS)技术,支持2,048卡光互连的GPU超节点集群,已在国家级算力平台部署。这类能力对汽车AI的价值并不抽象:
- 自动驾驶的仿真与数据回放是典型的“吞吐型任务”;
- 训练与推理混部越来越常见,系统调度会直接影响单位算力成本;
- 多地域数据中心与灾备要求提升,通信与扩展性成为基础设施。
换句话说,**汽车公司的AI竞争,正在从“买到卡”走向“用好集群”。**谁能把集群效率做高,谁就能在相同预算下跑出更多迭代。
对照特斯拉:软件优先 vs 硬件底座优先,差异在哪?
把壁仞的增长故事放到特斯拉的语境里,会出现三组非常清晰的对照。
1)战略重心:自研系统闭环 vs 生态供给能力
- 特斯拉:强调数据闭环(车队数据→训练→部署→再数据)、系统级整合(车端软件栈、算力平台、训练集群)。它更像一个把AI“装进整车系统”的公司。
- 中国生态(以壁仞为代表):更强调把“可用算力”作为公共底座供给出来,通过软硬协同与工程交付,服务更多行业与更多应用。
这会带来结果差异:特斯拉路线更垂直、更强控制力;中国路线更外溢、更容易形成产业集群。
2)竞争焦点:数据与部署速度 vs 适配与交付速度
- 特斯拉的瓶颈常在数据质量、标注/自监督策略、车端约束下的部署效率;
- 国产AI芯片的瓶颈常在模型适配、软件栈成熟度、系统工程与供应链确定性。
当壁仞强调“Day 0适配”和超节点落地,它其实是在补“部署速度”这条命门。
3)护城河形态:软件网络效应 vs 专利+系统工程
壁仞披露截至2026-02-28:全球专利公开量1630+、授权量730+,且发明专利授权率100%。这类护城河更偏“工程与知识产权”。特斯拉则更偏“数据规模+持续迭代+产品化部署”。
我更倾向于判断:未来3年,两者会在汽车行业形成一种“分工又竞争”的关系——整车厂要系统能力,但也需要稳定的算力供应与更低成本的集群。
给汽车与AI团队的可执行建议:如何评估国产算力是否能用、值不值
如果你的团队在做智能驾驶、智能座舱、仿真训练或企业级智能体平台,选算力方案时别只看峰值TFLOPS。我的建议是用一套“交付导向”的清单:
- 适配成本
- 关键模型能否在2周内稳定跑通训练/推理?
- 是否需要重写核心算子?编译器与算子库成熟度如何?
- 集群效率
- 千卡规模下的通信效率、故障恢复时间、任务调度能力;
- 是否有超节点/高速互联路线图(不仅是PPT)。
- 推理优化能力
- FP8/FP4、KV Cache、长上下文、MoE稀疏等能力支持程度;
- 端到端延迟与吞吐的实测数据。
- 工程生态与可运维性
- 监控、日志、容器、权限、多租户、计费等“脏活累活”是否齐全;
- 是否支持主流训练框架与推理引擎的长期维护。
- 供应链与交付确定性
- 合同交付周期、备件策略、现场支持能力;
- 多地域部署与合规要求支持。
这套清单的意义在于:把“国产替代”从口号变成项目管理问题——可测、可验收、可复盘。
估值与长期性:硬科技不是看情绪,而是看“放量节点”
财报中提到壁仞市值约692亿元,按2025年营收测算PS约66倍。高不高?我不打算用一句“见仁见智”糊弄过去。
**硬科技估值的核心变量是:下一代产品是否按期放量,以及放量后毛利与费用率能否被经营杠杆改善。**文章提到壁仞计划于2026年推出BR20X系列,升级计算架构、内存容量与互连能力,并支持FP8/FP4等低精度计算——这类路线如果兑现,会更贴近推理时代的成本结构。
对产业观察者来说,更值得盯的是两件事:
- “可持续交付”是否能跨越更多行业客户(而不是少数示范项目);
- 软件栈是否能跟上MoE、长上下文、智能体工具链的迭代速度。
结尾:当特斯拉用软件定义汽车,中国正在用算力定义AI的下限
壁仞科技三年营收增16倍这件事,真正的价值不在“增长很快”,而在它验证了一个趋势:国产AI芯片正在从技术叙事,转向系统级交付与商业化叙事。这会持续影响汽车行业——因为智能驾驶、智能座舱、仿真训练、企业智能体平台,最终都要落到“算力成本”和“部署效率”。
如果你所在的公司正重新评估AI路线,一个更现实的问题是:**你的AI优势到底来自数据闭环与系统软件(像特斯拉那样),还是来自更可控的算力底座与工程交付(像中国算力生态正在补齐的那样)?**答案不同,组织能力、供应链策略、人才结构都会完全不同。