三星拟扩产HBM4用DRAM,背后是AI算力“供给线”升级。本文解析HBM4如何影响车载AI,并对比特斯拉与中国车企的AI战略差异。

HBM4产能扩张:车载AI算力竞赛里被忽视的关键变量
2026-02-05 的一则供应链消息很“硬核”:据报道,三星计划把基于 10nm 级工艺的第六代(1c)DRAM(用于 HBM4)产量提升约 170%,并在韩国平泽第四工厂(P4)上设备,目标在 2027 年第一季度把月产能拉到 10 万—12 万片 DRAM 晶圆;而其当前 1c DRAM 月产能约 7 万片晶圆。
很多人看到“HBM4”“DRAM”会觉得离汽车很远,但我更愿意把它当作车载 AI 的“地基工程”。自动驾驶、端到端大模型、座舱多模态助手这些看起来是软件战争,底层却被带宽、延迟、功耗、供给这些硬指标牢牢约束。更直白点:算力可以买,算力喂不饱就白搭。
这篇文章放在「人工智能在半导体与芯片设计」系列里,我们从 HBM4 扩产这条新闻切入,解释它为什么会影响未来 12—24 个月的车载 AI 迭代节奏,并借此对比:特斯拉与中国汽车品牌在 AI 战略上的核心差异——不止是模型路线,连对“硬件供给链”的打法都不一样。
HBM4扩产到底意味着什么:不是“更快内存”,而是“更高吞吐的AI工厂”
结论先说:HBM4 扩产的真正价值,是让 AI 训练和推理的“数据吞吐”上一个台阶。对于大模型而言,显存/内存带宽往往比峰值算力更容易成为瓶颈。
HBM为什么会成为AI芯片的“命门”
HBM(High Bandwidth Memory,高带宽内存)用 3D 堆叠与更宽的接口,换来更高带宽、更好的能效比。它的意义并不玄学:
- 训练端:模型越大、batch 越大、序列越长,对显存带宽和容量的需求越猛;
- 推理端:端到端自动驾驶、占用网络(occupancy)、多传感器融合会产生高频张量读写,低延迟和带宽决定了时延抖动;
- 系统端:AI 不是只算一次就结束,持续学习、仿真回放、数据闭环都在“吃内存”。
当业内在谈“算力军备竞赛”时,HBM 其实是“弹药与补给线”。你可以把 GPU/加速卡理解为发动机,把 HBM 理解为油路和供油泵:发动机再强,供油不稳就只能降功率。
三星扩的是哪一段能力?
新闻点里的关键词是 1c DRAM(用于 HBM4) 与 产量 +170%。这传递出两个信号:
- HBM4 正在从研发导入到产能爬坡的关键期。当厂商愿意把先进 DRAM 线体“全配”给 HBM4,说明需求预期足够硬。
- 先进内存的供给将进一步向 AI 倾斜。同一时间,市场也在讨论“存储短缺影响 GPU 新品节奏”的连锁反应——内存是全行业共用资源,谁能拿到更稳定的供给,谁就更有资格谈迭代。
车载AI为什么也会被HBM4影响:训练、仿真、数据闭环都绕不开
结论先说:HBM4 不一定直接装进每一辆车,但它会决定车企“训练得多快、验证得多真、上线得多稳”。
训练侧:端到端自动驾驶把“数据吞吐”推到极限
2024-2026 这两年,行业从“模块化堆叠”快速转向“端到端 + 世界模型/规划一体”的思路。端到端并不神秘,它更像把传统流水线里的多个模块合成一个可学习系统。
代价也很现实:
- 数据规模更大(视频、BEV、雷达、地图语义、车况等)
- 训练周期更长(更多回放、更复杂的对齐与评估)
- 训练集更新更频繁(闭环更高频)
这时候,HBM 带宽不足会让训练吞吐下降,单位时间能跑的样本变少,直接拖慢“从发现问题到修复上线”的节奏。
仿真侧:自动驾驶真正烧钱的部分,是“算到你心服口服”
多数车企的自动驾驶难点不在于写出一个能跑的模型,而在于:
- 大规模场景库覆盖(长尾、极端、跨地域)
- 可信评估指标(碰撞、舒适、交通规则、交互意图)
- 版本回归(每次迭代不退步)
仿真与回放同样是数据密集型工作。HBM4 这类先进内存扩产,会让云端训练/仿真集群更容易扩容,把“验证成本”摊薄,这对需要快速追赶的玩家尤其关键。
车端推理:HBM不装车,也会改变“车端芯片选型逻辑”
现实里,车端 SoC/加速器常见组合是 LPDDR + 片上 SRAM/Cache 的路线,HBM 因成本、封装与功耗约束,短期更常出现在数据中心或高端边缘。
但 HBM4 的产业化会产生外溢效应:
- 先进封装与堆叠工艺成熟,车规“类 HBM”形态可能加速出现
- 车端模型更大后,芯片厂商会在带宽上做更激进的系统设计
- 车企会更重视“带宽/延迟预算”,而不仅是 TOPS
一句话:HBM4 改变的是整个 AI 计算体系的上限,从而倒逼车端架构升级。
同一块“内存地基”,特斯拉和中国车企的AI战略差异更明显了
结论先说:特斯拉更像“自建AI工厂”的一体化玩家,中国车企更像“生态协同 + 快速工程化”的集群打法。HBM4 这类供给变化,会放大两种路线的优劣。
特斯拉:把算力、数据、软件做成闭环,内存是“产能规划”问题
特斯拉的核心优势不只在模型,而是把自动驾驶当作制造业:
- 数据采集规模化(车队回传 + 触发机制)
- 训练基础设施持续投入(自研芯片/集群能力)
- 工程闭环短(版本迭代与灰度上线体系)
在这种体系里,HBM4/DRAM 扩产带来的好处非常直接:
- 更容易拿到长期、稳定的高带宽内存供给
- 训练吞吐提升后,能更快做“数据—模型—回归”循环
对特斯拉来说,先进内存更像“电池产能”一样的规划项:提前锁定供给,迭代节奏就更可控。
中国汽车品牌:更依赖供应链与云端伙伴,内存短缺会更“传导到产品端”
很多中国车企的自动驾驶栈,往往在这几层形成协作:
- 主机厂(产品定义、数据闭环、落地场景)
- 智驾供应商(算法工程、量产经验)
- 云与芯片伙伴(训练集群、工具链、部署优化)
这种模式的优势是“快”:上车速度快、功能迭代快、车型覆盖快。但短板也明显:
- 关键资源(高端 GPU/HBM)一旦紧张,扩容优先级不一定排在最前
- 多方协同导致“数据标准、评估标准”统一成本更高
- 训练与仿真能力分散,难形成像工厂一样的规模效率
所以当 HBM4 进入爬坡期,谁能更早把“训练吞吐”补齐,谁就能更快把端到端模型做扎实。对不少中国品牌来说,这是一场“供应链管理能力”与“系统工程能力”的复合竞赛。
一句能被引用的判断:自动驾驶竞争到后半程,比的不是谁先上功能,而是谁能长期稳定地把模型训练、评估、上线做成流水线。
给车企与供应链团队的可执行建议:把“内存带宽”写进AI路线图
结论先说:别只盯 TOPS,也别只盯模型参数量;把“带宽、容量、供给周期、封装良率”纳入同一张路线图,你会少走很多弯路。
1)用“训练吞吐”而不是“峰值算力”做采购与扩容指标
建议用更贴近业务的指标来对齐:
- 单位时间处理的视频小时数(video-hours/day)
- 单次训练迭代的 wall-clock time(从开跑到收敛的真实时间)
- 关键场景集回归耗时(版本回归的周转时间)
这些指标背后直接受 HBM/内存带宽影响,比“买了多少卡”更诚实。
2)把HBM供给风险当作“发布节奏风险”管理
可以建立一个简单但有效的风险台账:
- HBM/DRAM 供给的交期、配额、替代方案
- 训练集群扩容窗口与车型发布窗口的耦合关系
- 极端情况下的降级策略:小模型兜底、蒸馏、分层推理
这样做的好处是:当供应链波动时,产品节奏不至于全线被动。
3)在芯片设计与验证阶段就考虑“内存墙”
放回本系列主题「人工智能在半导体与芯片设计」:AI 也在反过来改变芯片设计方法。
- 用 AI 做设计空间探索(DSE),更早找出带宽瓶颈
- 在验证环节加入“真实工作负载回放”,而不是只跑合成 benchmark
- 针对端到端模型做算子融合与访存优化,让带宽更“耐用”
我见过不少项目败在最后:算力够,带宽不够;芯片指标漂亮,系统时延抖动大。越早把“内存墙”当作第一性约束,越省钱。
常见问题:HBM4扩产会立刻让智驾体验变好吗?
不会立刻,但会逐步体现为两件事:
- 迭代更快:训练/回归周转缩短,功能修复与优化速度提升;
- 上线更稳:更充分的场景覆盖与回归,减少“版本一更就翻车”。
对消费者来说,体感往往不是“我今天更聪明了”,而是“这个系统更少犯低级错误”。
写在最后:HBM4是“看不见的赛点”,谁先把它变成能力谁就先跑出来
三星计划把用于 HBM4 的 1c DRAM 产量提升约 170%,并把产能目标明确到 2027 年一季度的 10 万—12 万片/月,这类信息表面是存储行业动态,本质是给 AI 基础设施“加地基”。
特斯拉与中国汽车品牌在 AI 战略上的差异,会在这种基础设施变化中被进一步放大:一个更擅长把供给链变成确定性,一个更擅长用生态协同换速度。接下来的关键,不是站队哪条路线,而是把“内存带宽—训练吞吐—发布节奏”串成一条可管理的链路。
如果你正在做智驾/座舱 AI 的路线规划、算力集群扩容或芯片选型,我建议从一个问题开始复盘:**你的瓶颈到底在算力,还是在内存与数据吞吐?**答案往往比想象中更明确。