浙江拟统筹算力资源并构建多层次算力体系。本文对比Tesla软件优先与中国车企政策协同路线,给出车企算力分层与落地清单。

浙江统筹算力背后:Tesla与中国车企AI战略的分水岭
春节刚过,很多车企的AI团队已经进入“开工即加速”的节奏:数据回流、模型迭代、智驾城市NOA版本排期……但真正让AI能力拉开差距的,往往不是发布会上的功能清单,而是一个更朴素的问题:算力从哪里来、怎么用、能不能长期稳定地用。
2026-02-04,浙江公开征求《浙江省“十五五”高质量发展建设共同富裕示范区规划(征求意见稿)》意见,其中明确提出:统筹规划全省算力资源,构建多层次算力服务体系;并推进“芯模联动”、打造“基础+垂类”模型群、营造开源开放生态、建设国家数据要素综合试验区等。
这类省级“算力统筹”听起来像宏观政策,离车企似乎有点远。我的看法相反:**它正好解释了Tesla与中国汽车品牌在AI战略上的核心差异——一个把算力当成“自建工厂”,另一个更容易把算力当成“公共基础设施+产业协同”。**对智慧城市而言,这个差异会进一步影响交通治理、车路协同、公共安全与出行效率。
浙江“统筹算力”的关键点:把算力做成公共服务
直接结论:浙江想做的不是“再建几个数据中心”,而是把算力变成可调度、可分层、可交易的城市级基础设施。
从征求意见稿释放的信号看,至少包含四层意思:
- 统筹规划:全省算力资源不再“各自为战”,强调统一布局、统一调度与供给结构优化。
- 多层次算力服务体系:意味着算力将按“基础算力—行业算力—场景算力”分层供给,企业不必从零开始。
- “芯模联动”与“基础+垂类”模型群:把芯片、框架、基础模型、行业模型放进同一张产业地图里。
- 数据要素试验区与开源开放生态:目标是让数据可用、可流动、可合规,进而支撑模型快速落地。
对“人工智能在智慧城市建设”这条主线来说,算力统筹的意义很明确:交通、城管、应急、公安、能源等场景都需要持续训练与在线推理,算力不能只靠单点项目采购,更不能每次扩容都推倒重来。
一句话概括:城市AI不是做一次演示,而是要在高并发、强约束、可审计的环境里长期运行。
算力为什么是车企AI战略的“地基”?从训练到上车再到城市协同
直接结论:车企的AI投入,80%会在“数据—算力—工程化”链路里消耗,真正决定速度与上限的是基础设施,而不是单个算法点子。
把车企AI拆开看,大致有三类算力需求:
1)离线训练:决定“上限”
- 自动驾驶感知/预测/规划、端到端驾驶模型、多模态大模型(语音、视觉、车控)都需要训练。
- 训练的本质是“烧数据”,而数据越真实、越多样、越贴近城市道路分布,训练越有效。
现实问题:训练算力要长期稳定、能弹性扩容,还要控制成本。算力紧张时,项目排队会直接拖慢版本节奏。
2)仿真与回放:决定“迭代速度”
- 高等级智驾离不开大规模仿真与影子模式回放。
- 大模型时代还要做大量A/B评测、安全护栏测试、对齐与红队。
现实问题:仿真往往“吞噬”大量GPU/CPU与存储带宽,尤其在城市NOA、复杂交互场景里更明显。
3)在线推理与车云协同:决定“规模化交付能力”
- 车端推理受制于芯片与功耗;云端推理受制于延迟、带宽与成本。
- 智慧城市场景里还有路侧与城市平台的实时推理(拥堵预测、信号优化、事件检测)。
现实问题:多主体协同(车—路—云—城)对算力调度、数据治理、合规边界要求更高。
因此,当浙江提出“多层次算力服务体系”,它对车企的含义很直接:能不能把训练、仿真、推理的不同需求放到不同层级的算力池里,以最小的成本拿到足够的迭代速度。
Tesla的软件优先:把算力当成“自建工厂”,用数据闭环压强推进
直接结论:Tesla的AI路线更像互联网公司——以软件与数据闭环为中心,算力是为闭环服务的生产资料。
Tesla在AI上的典型特征是“强一体化”:
- 数据优先:大规模车队回传、标签体系、影子模式、触发式采样等,目标是形成可持续的数据闭环。
- 软件栈一体化:从模型、工具链到部署路径强调统一与复用,减少组织摩擦。
- 算力投入集中化:为了训练效率与迭代节奏,倾向于把算力掌握在自己手里,像建工厂一样建训练集群,围绕“训练—评测—部署”流水线化。
我见过不少团队学Tesla,但往往学成了“买GPU、上大模型”。问题在于:Tesla真正的优势不是某一代模型,而是它把数据闭环做成了高频运转的生产系统。算力只是让这个系统跑得更快。
这也解释了一个现象:当外部算力供给紧张时,Tesla受影响相对更小;但代价是资本开支高、组织能力要求极强。
中国车企的政策红利:把算力当成“公共底座”,用产业协同缩短落地链路
直接结论:中国车企更容易走出一条“政策与产业协同驱动”的AI路线:算力、数据、模型、应用由地方与生态共同提供,车企把优势放在工程化与场景落地。
浙江提出的“芯模联动”“基础+垂类”模型群与开源开放生态,对本地车企与供应链意味着三类机会:
1)更低门槛拿到“可用算力”
统筹后的算力池,理论上能提供:
- 基础训练算力(通用GPU集群)
- 行业算力(面向制造、交通、汽车等场景的优化栈)
- 边缘算力(面向路侧、园区、港口等低延迟需求)
对车企来说,这会把“算力获取”从单点采购,变成可组合的公共服务。
2)更快形成“垂类模型—应用”的闭环
“基础+垂类”模型群的价值在于:
- 基础模型解决通用能力(视觉、多模态、对话)
- 垂类模型解决交通规则、道路行为、长尾场景与行业知识
车企如果能在本地生态里拿到更成熟的垂类能力,就能把更多资源投入到:
- 车端部署与性能优化
- 安全合规与功能验证
- 城市道路适配与运营
3)更现实的“车—城”协同路径
智慧城市需要的不只是“车更聪明”,而是“城市更会调度”。在政策推动下,车企更可能参与:
- 信号灯优化、拥堵预测、公交优先等交通治理AI
- 事故/抛洒物/施工占道的事件检测
- 城市级数字孪生与仿真评估
这些应用天然依赖城市算力与数据要素治理,单个企业很难独立完成。浙江这种打法,本质上是在为“AI城市操作系统”铺底座。
车企怎么用好“多层次算力体系”?一份可落地的决策清单
直接结论:别把算力当成本项,把它当成“研发节拍器”。先把需求分层,再决定自建与外采的边界。
我建议车企(尤其是做智驾、座舱大模型、车云协同的团队)用下面五步做算力策略:
- 把工作负载分成三类:训练、仿真/回放、在线推理(车端/云端/边缘)。每类都写清楚峰值需求与可接受延迟。
- 确定“必须自建”的底线:涉及核心数据、核心模型、核心评测体系的环节,优先自建或专属资源池。
- 把“可弹性”的部分交给公共算力:例如阶段性大规模仿真、短周期评测、非核心模型的预训练。
- 用指标管成本与效率:建议至少跟踪三项硬指标:
训练成本/每百万样本(衡量数据利用效率)版本迭代周期(天)(衡量算力供给是否卡脖子)云端推理单次成本与P95延迟(衡量规模化能力)
- 提前做合规与数据治理设计:尤其在智慧城市合作项目里,要把数据边界、脱敏规则、审计机制写进技术方案,而不是等招标时临时补材料。
写在最后:算力统筹会把AI竞争从“单点爆发”拉回“系统能力”
浙江提出统筹全省算力资源、构建多层次算力服务体系,本质上是在回答一个更大的命题:当AI进入基础设施阶段,谁能把算力、数据、模型与应用组织成系统,谁就能更快把能力扩散到城市与产业。
对Tesla来说,优势来自强闭环与强一体化,算力像自建工厂,追求极致节奏;对中国车企来说,政策与产业协同提供了另一条更“现实”的路:把算力做成公共底座,把模型做成可复用资产,把应用做成城市级服务。
下一次你看到某个城市宣布“算力平台”“模型群”“数据要素试验”,别只当作宏观口号。它很可能会在两三年内改变智驾迭代速度、车云协同成本,甚至改变智慧交通项目的中标格局。
你更看好哪条路线:自建闭环的高压强推进,还是公共算力+产业协同的规模化落地?