Positron 融资2.3亿美元:车企AI算力战不只看英伟达

人工智能在半导体与芯片设计By 3L3C

Positron获2.3亿美元融资,释放AI芯片多极化信号。算力供给与工具链能力,正在重塑Tesla与中国车企的长期优势。

AI芯片半导体自动驾驶算力基础设施汽车智能化投融资供应链
Share:

Featured image for Positron 融资2.3亿美元:车企AI算力战不只看英伟达

Positron 融资2.3亿美元:车企AI算力战不只看英伟达

2026-02-06 这个时间点,AI 芯片的“缺货焦虑”已经从大模型公司蔓延到更多行业——尤其是汽车。原因很现实:智能驾驶、座舱大模型、车端推理、仿真训练都在吞噬算力预算,而供应链的每一次紧张都会直接影响车型迭代节奏。

就在这个背景下,AI 芯片初创公司 Positron 完成 2.3 亿美元 B 轮融资(RSS 摘要信息),投资方包括 卡塔尔投资局(Qatar Investment Authority)。表面看,这是“又一家要挑战 Nvidia 的芯片公司”;更关键的是,它提醒汽车产业一个事实:未来竞争力不只来自电池与整车平台,还来自算力与芯片生态的选择权

这篇文章把 Positron 的融资当作案例,放进我们「人工智能在半导体与芯片设计」系列的主线:AI 既在改变芯片设计与验证方式,也在改变汽车企业获取算力的方式。我的判断很明确:算力供给从单一强势平台走向多极化,会重新拉开 Tesla 与中国汽车品牌的长期差距——差距不一定在“谁的模型更大”,而在“谁能更稳定、更低成本、更快迭代地把模型跑起来”。

2.3亿美元融资说明了什么:AI芯片正在多极化

直接结论:资本在押注“非英伟达路径”会变成主流选项之一,至少在部分工作负载上是这样。

过去两年,市场对 Nvidia 的依赖几乎到了“单点故障”的程度:训练、推理、生态工具链、工程师经验都高度集中。于是只要供货周期、出口政策、价格体系、云端配额任意一环波动,企业就会被迫延迟项目或提高成本。

Positron 融资的信号在于:

  • 需求端在扩散:不止大模型公司要卡,汽车、工业、能源、政务和科研都在抢。
  • 资金端更理性:不再只投“更大参数”,而是投“更可控的算力供给”。
  • 国家资本更积极:卡塔尔这类主权基金把 AI 基础设施当作国家级资产配置,逻辑类似过去的能源、港口和通信。

一句话概括:当算力变成战略资源,芯片创业的故事就不再只是技术故事,而是供应链与地缘产业结构的故事。

为什么汽车行业必须关心AI芯片创业公司?

直接结论:车企关心 AI 芯片,不是为了“买更便宜的卡”,而是为了“更快做出更好的车”。

智能汽车的 AI 负载大致分三层:

  1. 训练(云端/数据中心):用于自动驾驶策略、感知模型、座舱大模型、仿真与数据闭环。
  2. 推理(车端/边缘):用于实时感知、规划、语音与多模态交互。
  3. 仿真与验证(云端+本地集群):决定安全与迭代速度。

芯片生态的竞争会在三个维度影响车企:

1)产品迭代速度:算力“可用性”比峰值更重要

很多团队都经历过类似场景:模型结构已经定了,数据也在持续进来,但训练资源排队两周。最后只能“先把阉割版上线”,再慢慢补。

这对汽车尤其致命,因为车型迭代有窗口期:

  • 智驾 OTA 一旦错过节奏,口碑和销量可能连续几个季度受影响。
  • 竞品如果先把体验做稳,后续追赶成本会指数级上升。

当市场出现更多训练/推理芯片选项(哪怕不是全面替代),车企能做的是:把关键训练任务拆分到更稳定的供给上,用“组合拳”而不是“单一供应商”。

2)成本结构:算力是新一代“BOM 外溢成本”

汽车行业谈成本,习惯盯住 BOM(物料成本)。但智能化时代,BOM 之外的算力成本越来越像“影子 BOM”:

  • 数据标注、仿真、训练集群、云端推理、工具链授权
  • 以及最容易被忽视的:工程效率损失(调试慢、迁移难、算子不匹配)

当 Nvidia 生态独大时,价格弹性很小;而一旦多极化形成,同一预算能换来更多有效训练轮次,这会直接反映在自动驾驶长尾能力与座舱体验上。

3)全球化竞争:算力基础设施决定出海上限

RSS 提到卡塔尔希望建设 AI 基础设施,这其实点出一条趋势:AI 基础设施正在像数据中心、港口一样,成为国家竞争的“新底座”

对要全球化的车企来说,这影响两件事:

  • 海外本地训练/推理部署是否可行(合规、延迟、成本)
  • 供应链在不同市场的“可获得性”(尤其在政策与出口限制更复杂的环境下)

结论很现实:能在多地区稳定拿到算力的车企,才有资格把智能化体验做成全球产品。

从Positron案例看:AI硬件竞争会怎样重塑Tesla与中国车企?

直接结论:决定长期优势的不是“谁先用上新芯片”,而是谁能把“芯片—软件—数据闭环”做成可复制的工程体系。

Tesla 的强项:垂直整合 + 数据闭环的长期主义

我一直认为,Tesla 的核心不是某一代 FSD 模型,而是它对“系统工程”的执着:车端数据回传、训练基础设施、软件栈、以及对算力投资的决策速度。

当 AI 芯片生态多极化,Tesla 的受益点在于:

  • 可以更灵活地采购与组合算力资源,减少供应端冲击
  • 以更高频率推进模型训练与仿真验证
  • 把供应链风险更早纳入研发计划(这点很多公司做不到)

中国汽车品牌的机会:规模化制造 + 本土生态速度

中国车企的优势同样明显:

  • 车型迭代快,供应链响应快
  • 本土 AI 产业链更完整(从算法到硬件到工具)
  • 更愿意在不同方案之间“快速试错”

但挑战也很清晰:当硬件选择变多时,工程复杂度会上升。如果每个项目都临时适配一套工具链,会出现“越做越散、越散越慢”。

多极化不是免费午餐。它带来选择权,也带来集成成本。

真正的分水岭:谁能把“可迁移性”当作第一原则

汽车企业应该把下面这句话写进研发 KPI:

算力策略的目标是可迁移性,而不是押注单一平台的极致性能。

这会体现在:

  • 模型训练是否抽象出硬件无关层(编译、算子、调度)
  • 数据与特征管线是否能跨云、跨集群复用
  • 仿真与验证是否可在多种硬件上稳定复现结果

回到“人工智能在半导体与芯片设计”:车企如何在芯片生态里占主动?

直接结论:车企不必自己造数据中心芯片,但必须具备“评估、适配、共同定义”的能力。

我们的系列主题强调:AI 正在加速芯片设计验证、制程优化与良率提升,而这些能力最终会反哺下游行业(包括汽车)。对车企而言,更重要的是把这种变化转成组织能力。

一套务实的行动清单(适合2026年的车企)

  1. 把工作负载拆开看:训练、推理、仿真、检索增强(RAG)各自最适合的硬件不同,不要一刀切。
  2. 建立“算力双供”机制:至少两条可用路径(Nvidia + 备选),并定期演练迁移。
  3. 以工具链为中心做标准化:优先投资编译、调度、监控、数据管线,而不是只买硬件。
  4. 把验证前置:用 AI 辅助芯片/模型的验证与回归测试,减少“上线后才发现不稳定”。
  5. 与芯片初创公司做联合定义:把汽车的真实约束(延迟、功耗、可靠性、ASIL、安全合规)提前写进路线图。

“People Also Ask”:读者常问的三个问题

Q1:AI芯片创业公司真的能挑战 Nvidia 吗?

能挑战的是“部分场景的统治力”,而不是短期内全栈替代。训练与推理会出现更多分层:某些推理、某些专用训练任务会先被替代。

Q2:车企应该买自建集群还是更多用云?

我更支持混合:核心训练与敏感数据做自建或专属云,弹性峰值用公有云。关键不是形式,而是你能否做到跨环境一致的工程体验。

Q3:算力多样化会不会让研发更慢?

会,如果你没有做抽象与标准化。做对了反而更快,因为你不再被单点供应链卡住。

算力不是“后台采购”,而是长期竞争力

Positron 的 2.3 亿美元融资,以及卡塔尔这类资金对 AI 基础设施的投入,都在告诉我们:算力正在从 IT 成本项变成产业护城河的一部分。汽车行业也一样。

如果把 Tesla 与中国汽车品牌的长期竞争看作一场马拉松,那么真正的分差常常出现在“补给站”:谁能稳定获得算力、谁能把硬件变化快速消化进工程体系、谁就能持续更快迭代。

接下来一年,我会特别关注一个指标:车企是否开始公开讨论“多芯片/多云训练与验证体系”。当这成为主流话题时,智能汽车的竞争焦点会从“堆功能”转向“拼系统效率”。

你所在的团队,算力策略是“单供应商冲刺”,还是“多路径可迁移”?这个选择,往往比某一次模型升级更关键。

🇨🇳 Positron 融资2.3亿美元:车企AI算力战不只看英伟达 - China | 3L3C