亚马逊拟 2000 亿美元、谷歌 1750-1850 亿美元豪掷 AI capex。算力竞赛将外溢到车企与内容平台,决定“单位智能成本”与长期优势。

亚马逊谷歌豪掷AI资本开支:车企下一张王牌
2026 年,亚马逊计划把 2000 亿美元砸进资本开支(capex);谷歌紧随其后,预计 1750 亿至 1850 亿美元。这不是“买几万张显卡”的故事,而是一次更像修铁路、建港口的基础设施竞赛:谁先把算力、电力、数据中心、网络和软件栈铺到位,谁就更接近下一轮 AI 产业的定价权。
这件事和汽车有什么关系?关系非常直接。智能驾驶、智能座舱、车端大模型、仿真训练、工厂制造与供应链优化,都在吞噬算力与数据。更关键的是,AI 的“单位智能成本”(每提升一点效果要花多少钱)正在成为车企长期优势的分水岭——这恰好对应我们系列《人工智能在媒体与内容产业》一直在讲的核心:内容推荐、智能创作、用户画像与内容审核背后,真正决定体验与成本的,是底层 AI 基建与工程能力。
一句话立场:AI 时代的竞争,不是“谁更会做模型”,而是“谁能用更低成本、更快迭代把模型变成产品与规模”。
为什么亚马逊和谷歌敢把 capex 拉到 2000 亿美元级?
**答案先给:他们在买“未来十年的供给能力”,而不是买“今年的利润”。**在 AI 训练与推理都持续增长的前提下,算力供给、能源与数据中心选址、网络带宽、专用芯片、调度软件,都会变成稀缺资源。capex 的本质,是提前锁定稀缺。
从商业模式上看,亚马逊(AWS)与谷歌(Google Cloud)并不是单纯为自家产品烧钱,而是在建一个可对外售卖的“AI 工业能力”。当企业客户把 内容生成、广告投放、搜索推荐、客服外呼、视频审核迁移到云端模型时,云厂商赚的是长期、复利式的收入:
- 训练:大额、项目制、高门槛(数据+工程)
- 推理:持续、规模化、与用户增长绑定
- 平台:工具链、模型市场、企业安全与合规
这也解释了为什么“AI 基建”会和《人工智能在媒体与内容产业》天然交叉:媒体与内容平台的推荐与审核是推理密集型业务,一旦流量上来,算力账单会非常“真实”。
capex 竞赛的“奖品”到底是什么?
奖品不是某个模型的第一名,而是三件事:
- 更低的单位算力成本:同样的推荐质量/生成质量,成本更低,毛利更稳。
- 更快的产品迭代速度:从训练到上线,从 A/B 测试到全量发布,周期更短。
- 更强的生态绑定:开发者工具、数据管道、权限与合规体系越完整,客户迁移成本越高。
把这三件事翻译到汽车行业,就是:更低的“单位智能成本”、更快的软件交付、更强的用户与数据闭环。
AI 基建怎么“外溢”到汽车:从内容推荐到智能驾驶的同一套逻辑
答案先给:推荐系统、内容审核、广告投放这些“内容产业 AI”,本质上是大规模在线推理系统;智能驾驶与智能座舱,同样是大规模在线推理系统,只是场景从手机屏幕换成了车。
很多人把“内容 AI”和“汽车 AI”看成两条赛道。我不这么看。它们共享的底层能力高度一致:
- 用户画像/驾驶画像:一个是理解“你爱看什么”,一个是理解“你怎么开车、何时接管、偏好什么风格”。
- 实时推荐/实时决策:一个是推什么内容,一个是做什么驾驶决策。
- 内容审核/安全策略:一个是过滤违规内容,一个是限制危险动作、边界条件与功能开关。
- A/B 测试与灰度发布:一个验证点击率/留存,一个验证接管率/事故率/舒适度。
这也是为什么云巨头的 capex 竞赛,会在未来几年深刻影响汽车行业:当云端训练与仿真成本下降、推理部署工具成熟、数据合规与安全体系标准化,车企“把智能做出来”的门槛会降,但“把智能做到长期可盈利”的门槛会升。
车企真正烧钱的地方:不是买 GPU,而是买“可持续迭代”
智能驾驶的难点往往被简化成“算力+数据”。但在大规模落地时,最贵的常常是:
- 数据闭环:采集、清洗、标注、版本管理、回灌训练
- 仿真体系:场景库、对抗测试、回归测试
- 工程化:模型压缩、边缘部署、故障诊断、可解释与审计
- 安全合规:功能安全、网络安全、数据跨境与隐私
这些能力,正是云厂商通过 capex 砸出来的“规模化平台能力”。车企要么自建,要么借力云生态。
对照 Tesla 与中国车企:AI 投资路线的三种打法
答案先给:Tesla 更像“垂直一体化的 AI 制造商”,中国头部车企更像“供应链与产品节奏驱动的系统集成商”,而云巨头则像“卖铲子的人”。胜负取决于谁能把单位智能成本压到最低。
1)Tesla:用一体化换速度,但要承担周期波动
Tesla 的优势在于:数据规模、车端计算平台的统一性、以及软件迭代的组织能力。它更倾向于把关键环节抓在自己手里,从而在模型、数据、部署上形成闭环。
但一体化也意味着资本开支压力与波动更大:自研算力、训练集群、数据中心、甚至专用芯片路线,都会带来“高峰投入”。当行业进入价格战,现金流与利润的弹性会被放大考验。
2)中国车企:用供应链换规模,用产品节奏换心智
中国品牌的强项是:快速产品迭代、硬件成本控制、供应链组织效率,以及对本土场景的理解。很多品牌会采取“自研 + 生态合作”并行:在感知、座舱交互、工具链等方面与生态伙伴协作,在数据闭环与体验层面形成差异。
短期看,这能更快把功能推向市场;长期看,关键问题是:**核心能力会不会被锁在供应商黑盒里?**一旦无法把数据、模型与部署效率打通,单位智能成本会逐步失控。
3)云巨头:把算力变成标准品,把差异化留给应用层
亚马逊与谷歌的 capex 逻辑,是把“训练、推理、数据治理、安全合规、MLOps”做成工业化供给。对车企来说,这意味着两种结果:
- 好消息:训练与仿真的边际成本下降,迭代变快。
- 更残酷的事实:当基础能力商品化,差异化只能来自数据闭环、场景理解与产品体验。
媒体与内容产业给车企的启发:别把“模型”当成终点
答案先给:内容平台的胜负靠“分发效率 + 风险控制 + 体验稳定”,车企的胜负同样靠“交付效率 + 安全边界 + 体验稳定”。
我见过很多团队一上来就追参数、追榜单,结果上线后发现:成本高、延迟高、体验不稳,还容易触发合规与安全风险。内容行业早就踩过这些坑。
可复制的三条方法论(内容行业→汽车行业)
-
把 ROI 指标前置:
- 内容推荐看 CTR、留存、ARPU;
- 智能驾驶/座舱要看接管率、事故率、投诉率、功能使用率与算力成本。
-
把审核与风控当成产品的一部分:
- 内容审核不是“最后一道工序”,而是全链路策略;
- 智驾安全同样要“策略化、可配置、可审计”,并能快速回滚。
-
建立“灰度发布 + 回归测试”习惯:
- 内容平台通过灰度和 A/B 管住风险;
- 车端 OTA 更需要严格的回归测试、分群策略与异常监控。
可引用的一句话:模型会过时,流程不会;流程决定你能不能持续把智能交付给用户。
2026 年的现实建议:车企与内容平台该怎么跟上这轮 capex 竞赛?
答案先给:别盲目跟投硬件,优先把“数据—训练—部署—监控”的流水线打通;再用成本模型决定自建还是上云。
一套可落地的决策清单
-
先算清楚推理账单(尤其是座舱大模型与多模态):
- 每日活跃用户/车辆数 × 每次调用 tokens 或帧数 × 延迟目标
- 明确“高频低成本”和“低频高价值”的功能边界
-
把数据资产做成“可复用库存”:
- 统一数据标准、标签体系、版本管理
- 从采集就设计隐私与合规(最省钱的合规是“从源头做对”)
-
训练与仿真分层:
- 日常小迭代:用弹性云资源
- 关键里程碑训练:评估自建集群或长期预留实例
-
以“单位智能成本”做 KPI:
- 每提升 1% 体验指标(例如接管率下降、误触率下降)需要的额外算力与人力
- 用这个指标判断路线是否健康
这套方法对内容平台同样成立:你做智能创作、内容推荐、用户画像与内容审核,最终都要回到“效果/成本/风险”的三角形。
资本开支竞赛之后:真正的分水岭是“谁能把 AI 变成现金流”
亚马逊 2000 亿美元、谷歌 1750–1850 亿美元的 capex,传递的信号很明确:AI 已经从软件竞赛,升级为基础设施竞赛。当算力与工具链越来越像水电煤,行业的胜负会从“能不能做出来”转向“能不能规模化、可控地持续交付”。
对 Tesla 与中国汽车品牌来说,长期优势不取决于一次发布会的功能清单,而取决于:数据闭环是否顺畅、单位智能成本是否持续下降、以及安全与合规能否被工程化地管理。对媒体与内容产业也是一样:推荐、创作、审核做得再炫,扛不住成本与风险,就走不远。
接下来一年你可以思考一个更尖锐的问题:当 AI 基建越来越“买得到”,你真正独有、不可复制的能力到底是什么?