英特尔加速GPU布局、存储短缺或延续至2028年,正重塑AI汽车算力格局。本文拆解特斯拉与中国车企AI战略差异,并给出4个可执行的算力应对动作。

GPU与存储短缺延续至2028:AI汽车算力战怎么打
2026-02-04,英特尔CEO陈立武在接受媒体采访时提到两件事:英特尔正在加速布局GPU,同时他判断存储芯片短缺可能延续到2028年。这不是“芯片圈自说自话”的新闻,它直接影响一个更现实的问题:自动驾驶与车载大模型到底能跑多快、落地多深。
很多人把AI汽车的差距理解成“算法更聪明”“模型更大”。我更愿意把它讲得直白一点:算力与存储供给,正在决定车企AI战略的天花板。当GPU供给紧张、HBM/DRAM等存储持续短缺,最先被影响的往往不是实验室demo,而是训练节奏、迭代速度、以及最终上车的功能边界。
这篇文章放在《人工智能在半导体与芯片设计》系列里聊,核心就是把一条看似偏硬件的快讯,落到车企最关心的三件事:算力结构怎么选、供应链风险怎么控、AI能力怎么变成可持续的产品节奏。并且借这个窗口,讲清楚“特斯拉 vs 中国汽车品牌”在AI战略上的一个关键分野:特斯拉更像一体化的“算力工厂”,中国车企更像多供应商协同的“算力拼图”。
英特尔加码GPU:AI算力不再只靠一家
直接结论:英特尔押注GPU,意味着AI计算的供给结构在变,但短期内难以立刻缓解车企的算力焦虑。
英特尔任命新的首席架构师、加速GPU布局,本质是争夺AI硬件市场份额。过去几年,AI训练与推理对GPU的依赖几乎成了行业共识,云厂商、模型公司、自动驾驶团队都在“排队买卡”。当英特尔把GPU当成战略重点,它在向市场释放一个信号:通用算力平台的竞争会更激烈,生态将出现更多替代路径。
但对汽车行业来说,关键不只是“多了一个GPU供应商”。真正的变化点在于:
- 数据中心侧训练:自动驾驶从感知到规划再到端到端训练,训练集规模与迭代频率决定上限;
- 车端推理:座舱大模型、驾驶辅助、融合感知都在吃算力,且对功耗、成本、稳定性更苛刻;
- 软硬协同:同样的模型,落在不同硬件与工具链上,工程代价能差出一个数量级。
我见过不少团队吃过亏:训练在一种GPU生态里做得很顺,上车时换到另一套芯片与编译栈,性能、精度、时延、稳定性全要重做一遍。硬件多元化不是免费午餐,它要求更强的工程能力与更成熟的模型压缩/部署体系。
存储芯片短缺到2028:AI汽车被卡的往往不是GPU
直接结论:很多AI项目的瓶颈不是算力本身,而是“算力+存储+带宽”的组合;存储短缺延续,会把训练成本与交付周期拉长。
陈立武提到的“存储芯片短缺”更值得车企警惕。AI训练与大规模数据处理,真正消耗的不只是GPU计算单元,还有:
- HBM(高带宽存储):直接影响GPU喂数据的效率;
- DRAM/SSD:决定数据管线、缓存、样本吞吐;
- 数据中心网络与存储阵列:决定分布式训练效率与故障恢复能力。
当数据中心建设热潮持续,供需失衡会带来两类后果:
- 训练“排期化”:你不是缺算法人才,你是缺资源窗口。模型迭代从“每天更新”变成“每两周一更”。
- 成本“结构性上行”:GPU价格只是账面,真正的总拥有成本(TCO)里,存储、带宽、电力、机房运维会更突出。
对自动驾驶尤其致命的是:一旦训练节奏被拉慢,路测闭环、版本回归、数据再标注就会连锁延迟。最终表现为:功能上车变慢,城市NOA开城更谨慎,座舱大模型更新频率下降。
一句话:AI汽车的竞争,会越来越像“工业化生产”,而不是“做一套聪明算法”。工业化生产最怕供应链不稳定。
特斯拉 vs 中国车企:AI战略差异的核心在“算力组织方式”
直接结论:特斯拉倾向于用自建训练基础设施把算力变成“内生能力”;中国车企更依赖供应链与云生态,把算力当作“可采购资源”。两种路线各有代价。
把焦点从英特尔拉回汽车行业,你会发现:算力与存储短缺,会放大不同AI战略的差异。
特斯拉:把AI当制造业做,关键是算力自洽
特斯拉的思路更像“纵向一体化”:
- 数据闭环(车队数据回传—训练—部署)更强;
- 训练基础设施投入更重,强调规模化;
- 目标是把训练与部署的工程链条标准化、自动化。
这种路线的优势是:当外部GPU/存储短缺时,只要你能提前锁定产能或自建能力,迭代就不容易被打断。劣势也很明显:资金压力大、组织复杂度高,而且一旦方向判断错,回头成本更高。
中国车企:供应链弹性更强,但更怕“卡脖子式波动”
中国品牌过去几年在智能化上走得很快,常见特点是:
- 芯片与平台多供应商并行(车端SoC/域控方案多元);
- 训练更多依赖云厂商与算力租赁;
- 产品节奏更贴近市场,重视“可交付、可量产、可控成本”。
优势是弹性:某一代芯片供给吃紧,可以切换方案或降级功能。问题在于:当短缺持续到2028年这种长周期事件出现,‘切换’本身会变成长期工程负担——工具链碎片化、模型多版本维护、供应商协同成本上升。
我更尖锐一点说:
- 特斯拉赌的是“我能把算力做成自家护城河”;
- 中国车企赌的是“我能用产业链速度与成本效率赢”。
当GPU与存储不稳定时,第二种赌法更考验组织能力:谁能把软硬件工程体系做扎实,谁才不会被供应链波动牵着走。
芯片短缺下,车企AI负责人该怎么做:4个可执行动作
直接结论:把“算力风险”当成产品风险管理;用工程方法减少对单一GPU与单一存储路径的依赖。
这里给一些我认为更落地的做法,适合研发负责人、产品线负责人、以及供应链/战略团队一起推动。
1)把训练资源做成“组合资产”,而不是单点依赖
- 训练侧至少准备两条可跑通的路径(不同GPU/不同云);
- 关键任务预留冗余配额,避免临近发布被“挤出机房”;
- 对核心模型建立可迁移的训练脚本与监控指标体系。
2)优先投入“数据管线与存储效率”,回报比堆卡更稳定
当存储短缺延续,数据效率会成为隐形竞争力:
- 数据去重、分层存储、冷热分离;
- 训练样本采样策略升级(用更少数据达到同等效果);
- 标注与回归测试的自动化,减少“人等资源”。
3)车端部署要“面向波动设计”:模型可伸缩、功能可降级
- 建立统一的模型压缩/量化/蒸馏流水线;
- 关键功能提供多档算力版本(高配满血/中配平衡/低配基础);
- 把“算力预算”写进PRD,不要发布前才发现跑不动。
4)在芯片选型上,别只看峰值TOPS,更要看生态与交付确定性
车企最容易被宣传页的峰值指标带偏。更实用的评估框架是:
- 工具链成熟度(编译器、算子、调试与Profiling)
- 量产与供货周期(含存储配套、封装、备货)
- 端云协同能力(训练—部署的一致性)
- 成本结构(BOM + 开发/维护成本)
算力不是越大越好,算力是要“按期交付、可持续迭代”。
回到半导体与芯片设计:AI也在反过来塑造芯片路线
直接结论:AI需求正在推动GPU与存储的架构迭代,而AI也在加速芯片设计验证、制程优化与良率提升。
在《人工智能在半导体与芯片设计》这个系列里,我们反复讲一个趋势:AI不只是芯片的客户,也是芯片的工程方法。当GPU竞争加剧、存储持续短缺,芯片厂商会更在意两件事:
- 用AI做EDA与验证,提高设计收敛速度;
- 用AI做制程与良率优化,让产能更快爬坡。
这会形成一个“自我增强回路”:AI越热,对GPU/存储需求越大;供给越紧,厂商越需要用AI提升研发与制造效率。
对车企来说,这意味着未来3年(2026-2028)很可能出现一种常态:硬件供给紧张与技术迭代并存。能活得舒服的团队,通常不是“抢到最多卡”的团队,而是“最会用卡、最会省存储、最会做工程闭环”的团队。
该把这条快讯记在产品日历里,而不是收藏夹里
英特尔加码GPU、存储短缺或延续至2028年,这两句话合在一起,其实是在提醒汽车行业:AI能力不再只是软件部门的KPI,而是从芯片到数据中心到车端的系统工程。
如果你负责的是智能驾驶或智能座舱,我建议把2026-2028当成一个“基础设施约束期”来规划:功能路线要更现实,资源预算要更精细,供应链要更前置。谁能把算力不确定性变成可管理的流程,谁就更可能把AI做成稳定的产品竞争力。
你所在的团队,更接近特斯拉式的“自建算力工厂”,还是更接近中国车企常见的“多供应商算力拼图”?如果存储与GPU的紧张持续到2028年,你们的迭代节奏准备怎么保证?