Anthropic拟锁定10吉瓦算力,揭示AI竞争正转向电力与数据中心。对比Tesla与中国车企两条算力路径,给出可执行的基础设施建议。

10吉瓦算力被“预订”:Tesla与中国车企AI基础设施分野
2026-02-09 的一条快讯很短,却足够刺眼:Anthropic 正在考虑锁定多达 10 吉瓦(GW)的算力容量。把它换算成更直观的概念:这不是“多买几张 GPU 卡”,而是接近“用电站规模”去规划 AI 的长期供给。
这条新闻和汽车有什么关系?关系非常大。智能驾驶、座舱大模型、车端多模态感知正在把“算力”从 IT 预算里的一个科目,变成整车企业的“战略资源”。而算力的获得方式——自建、合建、租用、锁定、分期扩容——会直接决定 AI 能不能持续迭代,进而决定产品体验能不能拉开差距。
作为「人工智能在能源与智能电网」系列的一部分,我更关心另一个问题:**当 AI 公司开始用“吉瓦”来谈算力,车企该用什么逻辑把算力与电力、数据中心、负荷管理串起来?**也正是在这一点上,Tesla 与中国汽车品牌走出了两条明显不同的路。
10吉瓦锁定算力,真正锁定的是什么?
答案是:锁定的不仅是 GPU,更是电力、机房、交付节奏与成本曲线。“算力容量”之所以能用 GW 来描述,本质上是因为大规模训练与推理集群最终受制于电力与散热,而不是采购单。
从基础设施视角看,锁定算力通常意味着企业在以下几件事上提前下注:
- 电力与接入:数据中心可用电力指标、变电站容量、线路接入周期。
- 机房与液冷:高功率机柜密度下,空冷很快到瓶颈,液冷成为“硬门槛”。
- 供应链与交付:GPU 只是其中一环,还包括网络(RDMA/IB)、存储、光模块等。
- 长期价格:把未来 24-60 个月的“单位算力成本”尽量压平,避免被市场波动反复教育。
对汽车行业来说,这种“锁定”尤其有意义,因为智能驾驶的能力曲线往往不是线性的:
当数据规模、模型规模和训练频率一起上升时,算力不足会让迭代速度直接掉档。
而一旦迭代速度掉档,体验就会变成“同样的功能,别人每两周更新一次,你每两个月更新一次”。用户感知非常直接。
算力战争升级,对智能电网意味着什么?
**答案是:AI 算力扩张正在把数据中心变成新的“超级用电负荷”,电网侧必须更精细地预测、调度与定价。**这也是为什么我们在能源与智能电网话题里讨论车企 AI,并不违和。
数据中心从“用电大户”变成“可调负荷”
传统工业负荷往往相对稳定,但 AI 数据中心具有更强的波动性:
- 训练任务可排程,具有一定可移峰能力;
- 推理负载更贴近实时业务,峰谷更像互联网业务;
- 高密度机柜对电能质量更敏感,对可靠性要求更高。
这会推动两类趋势:
- 电力侧更智能:更依赖 AI 做负荷预测、故障预警、优化调度。
- 算力侧更“电力友好”:更多采用液冷、余热回收、就地消纳可再生能源,甚至配置储能与微电网。
对于整车企业而言,如果把智能驾驶训练、座舱大模型、仿真与回放都压到同一条算力管线里,那么它实际上已经是一个“隐形的数据中心运营方”。你不理解电力,你就很难把算力成本打下来。
“锁算力”背后是电价与PUE的博弈
车企与 AI 公司最终会在两个指标上越来越敏感:
- PUE(电能使用效率):越接近 1 越好,液冷与高效供配电是关键。
- 单位训练/推理成本:不只是 GPU 折旧,还包括电费、运维、人力、场地与网络。
当 Anthropic 这类公司讨论 10GW 时,本质上是在用“能源约束”倒推“模型能力上限”。汽车企业也会越来越像这样思考:不是先定功能再找算力,而是先把算力与电力的上限算清楚,再规划产品迭代节奏。
Tesla 的路径:把AI当成“整车系统”的底座工程
答案是:Tesla 更像“自营基础设施 + 闭环数据飞轮”的路线,算力是产品的一部分,而不是外包资源。
我观察到 Tesla 的 AI 战略有三个非常工程化的特点:
1)从车端到云端的“同一套逻辑”
Tesla 强调端到端能力与持续学习(不展开争论其路线优劣),但关键在于:
- 车端传感与计算决定“采什么数据”;
- 云端训练决定“学到什么能力”;
- 再通过 OTA 回到车端,决定“用户体验是否提升”。
这是一套闭环系统。闭环系统最怕什么?最怕中间的某一环“供给不稳定”。因此 Tesla 需要更强的算力确定性。
2)自建更容易把单位成本打穿
自建算力的最大价值不只是性能,而是把成本拆到可控:
- 训练频率可控:你想多跑多少轮,决定权更大;
- 数据管线与安全合规更容易统一;
- 能源策略更可控:选址、电价、液冷、储能,都可以做长期优化。
这也解释了为什么 Tesla 经常被拿来和“垂直整合”绑定:当 AI 成为整车的核心能力,基础设施就不再是后台,而是前台竞争力。
3)算力与能源是一盘棋
在能源与智能电网的视角里,Tesla 的另一个优势是“天然跨域”:
- 车是移动负荷与储能载体;
- 充电网络是电网的边缘节点;
- 储能业务让它更理解电力系统的约束。
这会让它更早把“AI 数据中心的电力问题”当成战略问题来解。
中国汽车品牌的路径:更像“多供应商拼装”,速度快但摩擦大
**答案是:很多中国车企更倾向“云服务/大模型/芯片多方合作”,短期上线快,但长期算力确定性与系统一致性更难。**这并不是贬义,而是商业现实:车型多、节奏快、成本压力大,合作比自建更容易推进。
1)算力获取更灵活,但容易被价格与供给卡脖子
常见组合是:
- 训练:云上 GPU/算力租赁,按需扩缩;
- 推理:车端 SoC + 部分云端推理;
- 大模型:与头部模型方合作或共建。
这种模式的优势是“快”,劣势是“不可控”:
- 市场紧张时,算力价格上涨、交付周期变长;
- 多家供应商的工具链、数据格式、评测体系不一致;
- 迭代节奏受制于外部排期。
当 AI 进入“周更”时代,外部依赖会放大摩擦成本。
2)更强的本地化优势,但需要更强的系统工程
中国品牌在数据、场景、道路复杂度、用户需求多样性方面有明显优势。问题在于:优势要变成模型能力,需要稳定的训练管线与持续的算力供给。
这就把企业推向一个选择题:
- 要么逐步“锁定算力”(长约、合建、定制集群);
- 要么把模型策略改成更节省算力的路线(更高效的数据筛选、更强的仿真、更小但更专的模型)。
现实里,很多公司两条路会同时走,但资源分配必须清楚,否则容易“两头不靠”。
给整车企业的4条可执行建议:把算力当成能源项目来管
**答案是:把算力规划升级为“算力-电力-数据中心”一体化项目,并用可量化指标管理。**以下是我认为 2026 年最实用的四步。
1)用“训练吞吐”而不是“GPU数量”做规划
把目标从“买多少卡”换成:
- 每周可完成多少次全量训练/增量训练
- 每天可完成多少里程的回放与仿真
- 从数据采集到上线的平均周期(例如 14 天或 30 天)
这会迫使团队把数据管线、标注、仿真、评测一起纳入算力规划。
2)尽早做算力长约或合建,买的是确定性
像 Anthropic 的“锁定容量”,对车企的启发是:
- 算力长约:锁价格、锁交付、锁网络与存储资源;
- 合建集群:与云厂商/IDC/地方能源平台共建,减少 CAPEX 压力;
- 分期扩容:把 18-36 个月的扩容路径写进合同与工程计划。
3)把电力指标纳入KPI:PUE、电价、峰谷策略
建议至少建立三项“能源侧”指标:
- 机房 PUE(按月/季度追踪)
- 综合电价(含需量电费、峰谷价、绿电协议等)
- 训练任务移峰比例(可排程任务的占比)
当你开始追这些指标,数据中心就不再是黑箱。
4)模型策略也要“算力友好”:数据更干净,训练更有节奏
算力紧张时最常见的浪费是:
- 数据冗余高、无效样本多
- 评测体系不稳定,反复返工
- 训练节奏无计划,临时插队
更聪明的做法是把“数据治理”和“训练计划”产品化:用更严格的样本筛选、更强的自动评测与可复现实验,让每一瓦电都产生可解释的收益。
算力会成为车企的新“护城河”吗?
会,但不是简单的“谁卡多谁赢”。**真正的差异在于:谁能把算力变成持续迭代的组织能力,并把电力与数据中心当成长期经营资产。**Anthropic 讨论 10GW,提醒所有人:AI 的竞争正在从模型走向基础设施,从算法走向能源约束。
对 Tesla 来说,路线更像“把 AI 基础设施当作整车系统底座”,长期一致性强;对许多中国汽车品牌来说,路线更像“多方协作快速落地”,短期速度快、但需要尽早补上算力确定性与系统工程能力。
下一次你看到某家车企发布“城市 NOA”“端到端”“座舱大模型”时,我建议多问一句:**它的算力从哪里来?电从哪里来?扩容要多久?**这些问题看似不性感,却往往决定产品体验的上限。