亚马逊2026年拟投2000亿美元、谷歌1750-1850亿美元押注AI基础设施。本文拆解capex奖品,并连接Tesla与中国车企的AI工业化路径。

AI资本开支竞赛:亚马逊谷歌砸钱,车企赢什么?
2026年,亚马逊计划把2000亿美元砸进资本开支(capex);谷歌紧随其后,预计1750亿到1850亿美元。这不是“多买几台服务器”的小动作,而是一场把算力、电力、网络、数据中心、芯片供应链统统卷进去的AI基础设施军备竞赛。
更关键的是:这场竞赛的奖品,并不只属于云厂商。它会外溢到每一个把AI当“生产力系统”的行业——尤其是汽车。因为智能电动车的竞争,越来越像内容平台的竞争:谁能用更低成本、更快迭代,把“推荐—生成—评估—分发”的闭环跑起来,谁就能把用户体验和单位成本同时压到更优。
作为“人工智能在媒体与内容产业”系列的一篇,我想用一个更少人讨论的视角把这事说透:亚马逊和谷歌的capex,实际上在定义未来内容系统的边界;而车企(Tesla与中国汽车品牌)能否把AI变成长期优势,取决于它们能否拿到、用好、并内化这套基础设施红利。
为什么AI capex是“看不见的分水岭”?
AI资本开支的本质,是把AI从“模型演示”推到“可规模化生产”。钱主要花在三件事上:算力(GPU/TPU集群)、电力与散热、以及数据中心网络与存储。这些东西一旦铺开,就会形成一种非常硬的壁垒:不是你想追就追得上。
对媒体与内容行业来说,capex决定了三件现实问题:
- 推荐系统的训练频率:从“周更”到“日更”甚至“小时级增量训练”,需要稳定吞吐的训练集群与数据管道。
- 生成式AI的推理成本:同样的创作助手、同样的内容审核模型,算力单价差20%,就是毛利的生死线。
- 多模态能力的落地速度:从文本到图片、视频、语音、3D,模型越大、数据越复杂,对网络与存储的要求越高。
而汽车行业正在变成“移动的内容终端 + 机器人平台”。车载语音助手、座舱多模态交互、驾驶策略学习、OTA个性化推荐……本质上也是内容系统,只是“内容”变成了路线、决策、告警、交互脚本。
一句话:capex不是成本中心,而是未来十年AI单位经济的定价权。
2000亿美元与1750亿美元:云厂商在买什么“奖品”?
亚马逊与谷歌的AI capex竞赛,表面上是“谁的云更强”,更深层的奖品是三种权力:
1) 算力定价权:决定“训练一次模型”到底多贵
当某个云厂商拥有更大的自建集群、更好的芯片供给、更高的数据中心利用率,它就能把训练/推理单价压下去,并通过更灵活的定价策略吸引开发者生态。
对内容平台而言,这意味着:同样的推荐模型、同样的A/B实验,如果你单位算力更便宜,你就能更频繁试错、更快迭代;更快迭代就会带来更高留存与更高广告/订阅收入。
对车企而言,这意味着:
- 自动驾驶/辅助驾驶的训练账单能否可控
- 座舱智能体的推理成本能否在量产车上“用得起”
- 工厂视觉质检、预测性维护能否做到“全量部署”而不是“试点项目”
2) 电力与选址权:AI时代的新“土地财政”
2026年的AI不是“缺代码”,而是缺电。高密度机房、液冷、变电站、长周期电力合同,都是硬约束。谁能更快拿到稳定低价电力,谁就能更快扩张算力。
这会直接影响内容行业的两件事:
- 大规模视频理解、视频生成等重负载能力何时普及
- 实时内容审核、反作弊、深度伪造检测的成本何时下降
而在汽车行业,电力与算力的关系会被放大:智能驾驶训练往往需要持续吞吐的集群,且对数据闭环要求高。没有稳定供给,迭代速度就会被硬生生卡住。
3) 生态“默认入口”:开发者、模型、工具链都围着它转
当云厂商把capex投入到更完善的AI平台(数据标注、训练、评测、部署、监控、合规)上,就会形成工具链粘性。媒体内容团队会在平台里完成从素材管理到模型迭代的全流程;车企也会把从仿真到训练到车端部署的链路放在同一个“系统边界”里。
系统边界一旦确定,迁移成本极高。
把镜头拉回汽车:Tesla与中国车企真正比的是“AI工业化能力”
汽车的AI竞争,经常被简化为“谁的模型更聪明”。我不太认同。真正的差距在于:谁能把AI做成工业流水线。
1) 数据闭环:从“采集”到“可训练数据资产”
媒体行业把用户点击、停留、评论变成特征与标签;车企要把路况、驾驶行为、传感器片段变成可训练数据。
但车端数据比内容数据难太多:
- 数据量更大、模态更多(视频/雷达/IMU等)
- 长尾场景稀缺(事故、极端天气、突发施工)
- 标注更贵(需要专业标注与一致性管理)
capex强的云与平台能提供更完整的数据流水线能力(存储分层、数据治理、标注平台、训练调度)。对于车企来说,这会直接决定“新功能上线周期”。
2) 成本控制:AI是“越用越贵”,还是“越用越便宜”?
很多公司上AI后发现账单失控:训练频繁、推理调用爆炸、存储堆积。内容平台的解法是把模型分层:轻量模型负责大流量召回与过滤,大模型负责少量高价值的理解与生成。
车企同样需要“分层智能”:
- 车端用小模型保证实时性与安全冗余
- 云端用大模型做策略学习、仿真、回放与评测
- 工厂与供应链用中等规模模型做视觉与预测
谁能在capex与opex之间找到最优点,谁就能把AI变成规模优势而不是财务黑洞。
3) 组织流程:把A/B实验搬进工厂与车队
媒体行业的核心能力是“实验文化”:任何改动都可以灰度、可回滚、有指标。车企要把这种能力搬到更复杂、更高风险的系统里:
- OTA灰度与安全策略
- 驾驶策略的离线评测与在线监控
- 座舱智能体的个性化与隐私合规
云厂商的AI capex越大,越可能把这些能力产品化,降低车企自研门槛。
这场capex竞赛会怎样影响“内容产业的AI”?
你可能会问:我们是做媒体内容的,为什么要关心车企?原因很直接——内容行业正在成为多模态AI的“练兵场”,而汽车行业会把这些能力带到更高频的真实世界。
1) 推荐系统将进入“生成 + 推荐”融合阶段
传统推荐是“把已有内容分发给合适的人”。下一阶段是:
- 先预测用户意图
- 再动态生成更匹配的内容版本(标题、封面、摘要、视频片段)
- 最后实时评估并更新策略
这需要更低的推理成本与更强的平台能力。亚马逊与谷歌的capex扩张,会加速这类能力下沉到更多公司。
2) 内容安全与合规会更依赖基础设施
2026年,深度伪造与自动化“洗稿”更成熟,内容审核从“规则+人工抽检”升级为“多模态模型+证据链”。这要求:
- 更大规模的实时推理
- 更完善的日志与可追溯存储
- 更强的数据治理与权限体系
这些本质上都和capex驱动的数据中心能力绑定。
给企业的可操作清单:如何把AI基础设施变成竞争优势?
不管你是内容团队还是车企/汽车供应链团队,下面这份清单都能直接用。
- 先算清单位经济:把AI成本拆成训练、推理、存储、数据处理四类,建立“每千次调用成本”“每次训练成本”“每GB数据全生命周期成本”。
- 做模型分层:不要让大模型承担所有请求。用小模型做高频任务,大模型做高价值任务,配合缓存与批处理。
- 把数据当产品运营:建立数据质量指标(覆盖率、长尾占比、标注一致性、漂移监控),像运营内容一样运营数据。
- 平台优先而不是项目优先:优先建设可复用的数据管道、评测框架与监控系统,避免“每个部门一套脚手架”。
- 供应链要双备份(车企尤其要做):芯片、云资源、关键工具链要有可替代方案,避免被单一平台定价。
我见过最有效的一条原则:把AI预算从“模型本身”迁移到“数据与评测体系”。模型会过时,评测体系不会。
结尾:真正的奖品是“把AI变成基础设施”的能力
亚马逊2000亿美元、谷歌1750亿到1850亿美元的capex,看似是云厂商之间的较量,实际是在争夺AI时代的默认底座。对内容产业来说,它决定了生成式AI与推荐系统的成本曲线;对汽车行业来说,它决定了智能驾驶、智能座舱、工厂智能化能否走出试点、进入规模化。
回到我们的主线——未来竞争力:AI如何决定Tesla与中国汽车品牌的长期优势。我更愿意把胜负手总结为一句话:谁能把AI当“持续运行的工厂”,而不是“偶尔上线的功能”,谁就更可能在十年周期里赢。
你所在的团队,AI预算更多投在“买模型能力”,还是投在“让能力可复制、可规模化的基础设施”?这个选择,往往比模型参数大不大更重要。