CreateAI从自动驾驶转向AAA游戏的实机PV,揭示AI在“体验型产品”里应当如何落位:更重管线与一致性。本文对照游戏与汽车座舱UX,给出可落地的三步路线。

从自动驾驶到AAA:AI如何重塑游戏与汽车用户体验
2026-02-04,前自动驾驶公司图森未来(TuSimple)转型后的 CreateAI 放出了《射雕英雄传》开放世界 RPG 的首支“真·实机”PV。更值得细看的是:它并不是一段概念演示,而是标注为实时渲染的战斗与场景展示——这意味着团队已经跨过了 AAA 研发里最容易“只存在于PPT”的阶段。
这条新闻对汽车软件与用户体验(UX)从业者同样有参考价值。因为它暴露了一个行业共性:当产品竞争走到体验密度(沉浸感、连续性、可控性)时,AI 的位置会从“炫技”回到“工程化工具”。CreateAI 的经历也提醒我们:从自动驾驶转向游戏,并不是“换赛道就更轻松”,而是从硬件与感知栈的复杂性,切换到内容生产管线与实时交互的复杂性。
本文属于「人工智能在游戏与数字娱乐」系列,我们借 CreateAI 的转型案例,聊三件更实用的事:AI 在 AAA 游戏里到底能做什么/不能做什么、这些能力如何迁移到汽车座舱软件与车载交互,以及如果你正在做“AI+体验”,应该如何搭建可落地的路线图。
CreateAI 的转型给了我们一个更现实的 AI 坐标系
**结论先说:从自动驾驶到 AAA 游戏,本质是从“让车自己动”转到“让用户愿意待着不走”。**前者靠感知、规划、控制的闭环;后者靠叙事、动作、反馈、节奏的闭环。两者共同点是:都需要可控、可复现、可迭代的软件系统。
根据报道,CreateAI 团队规模约 200 人,且为了提升动作质量在 2025-08 自建动捕棚,组建“真人表演 + 3D 动画 + 2D 转描”的混合流程,并提到单《射雕英雄传》可能要做多达 500 套武学招式。这些信息非常工程化:它说明团队押注的不是“用 AIGC 直接生成整款 AAA”,而是把 AI 放在资产生产与管线提效的位置。
另一个值得借鉴的点是他们对“买时间”的反思:早期试图用钱快速堆人、堆外包,结果不达预期,最终把核心团队收拢到北京以提升协同管理。这和汽车软件里“堆供应商堆功能”导致体验割裂如出一辙:体验型产品的瓶颈常常不在“有没有功能”,而在“是否统一、是否一致、是否可控”。
AI 在 AAA 游戏里更像“生产力组件”,不是主驾驶
**结论:未来 3-5 年,AI 更可能在中轻量内容(手游、短动画、运营素材)里承担主力,在 AAA 核心制作链路里则以辅助为主。**CreateAI 制作人也明确表达了类似判断:当前 AI 在可控性、一致性上不足以进入 AAA 与商业电影的核心管线。
把话说得更直白一点:AAA 真正难的不是“生成一张好看的图”,而是生成一套在长周期、跨团队协作下仍然稳定的体验系统。AI 能帮忙,但必须被工程约束住。
1) AAA 里 AI 适合做什么:把“重复劳动”砍掉
在开放世界 RPG 这种高资产密度项目中,AI 更合适落在以下位置:
- 概念探索与风格收敛:用生成式模型做大量风格方案,再由美术总监定“风格边界”。关键是把边界写成可执行的规范(材质库、灯光规则、配色、面数预算)。
- 资产标注与检索:对大量扫描数据、材质、动作片段做自动标签,提升“找得到、用得上”的效率。
- 动捕清洗与动作变体:500 套招式意味着后期处理地狱。AI 可在噪声处理、关键帧补全、动作相似度匹配上提效,但最终仍要动画师做“武侠味”的审美决策。
- 质量检测(QA):例如自动发现穿模、光照闪烁、动画断帧等问题,属于高性价比的 AI 用法。
这些都是“让团队跑得更快”的活,而不是“替团队决定体验是什么”。
2) AAA 里 AI 暂时做不好的:一致性与可控性
真正阻挡 AI 进入核心制作链路的,往往不是效果上限,而是一致性:
- 角色在 30 小时流程里人设不崩(语气、动机、记忆一致)
- 战斗手感可调、可复现(帧数据、判定、受击反馈不飘)
- 跨版本更新不引入不可预测变化(线上补丁、DLC、联动活动)
当 AI 输出不可控时,研发团队会付出更高的返工成本。CreateAI 选择动捕棚与混合流程,恰恰说明:高质量体验目前仍靠“可控的手工流程 + 适度自动化”。
从游戏到汽车座舱:AI 驱动 UX 的共同方法论
结论:无论是开放世界游戏还是智能座舱,AI 的价值都应体现在“实时交互的体验闭环”里,而不是单点功能。
汽车行业这两年在做的转变非常明显:从“堆屏、堆APP、堆语音”转向“以用户任务为中心的座舱操作系统”。这和游戏从“堆美术资产”转向“以玩家体验曲线为中心”的逻辑一模一样。
1) “动作捕捉”对应汽车里的“多模态交互采集”
CreateAI 自建动捕棚,是为了把“人的动作与情绪”更真实地映射到角色上。汽车座舱同样需要更真实的“用户状态捕捉”,只是传感器不同:
- 语音(语速、停顿、情绪)
- 触控与旋钮(误触率、回退次数)
- 视线与头姿(需要合规前提下)
- 行为序列(导航—音乐—空调的任务链)
做对了,你会得到一套“体验动捕”:用户在驾驶/停车/通勤/长途的真实操作节奏。AI 的作用是把这些信号变成可用的特征与模型,用来减少打扰、减少步骤、减少错误。
2) “开放世界管线”对应汽车的“体验一致性管线”
开放世界最怕割裂:同一套世界观下,任务质量参差不齐会直接劝退玩家。座舱也一样:
- 导航很顺,但语音很蠢
- 主屏很美,但空调要点 4 次
- 车机很强,但手机互联断连
我更赞同的一种做法是把 AI 放进“体验管线”,而不是只放进“语音助手”。例如:
- 体验规则层:定义哪些场景 AI 可以主动、哪些必须被动;定义可解释的优先级。
- 个性化层:学习用户习惯,但提供“一键恢复默认/清空画像”。
- 一致性层:跨应用的统一意图理解与统一反馈(语气、动效、提示)。
一句话:AI 不仅要聪明,还要守规矩。
3) “AIGC 的边界感”是汽车 UX 成败的分水岭
CreateAI 的判断很克制:AI 现在不适合深度介入 AAA 核心生产。汽车也需要同样的边界感。
适合用 AI 的场景:
- 语音摘要/路线建议:在用户明确请求时提供建议,并能展示依据(如路况、时间)。
- 车内内容生成:如儿童模式故事、出行播报、个性化音乐电台,前提是安全与合规。
- 运营内容生产:手册问答、教程视频脚本、功能引导文案,减少发布成本。
不适合“交给 AI 全权处理”的场景:
- 关键驾驶相关的不可解释决策
- 会让用户无法预测后果的自动改设置
- 可能触发隐私风险的数据调用
体验产品的底线是可预期。可预期比“更聪明”重要。
可落地的三步路线:把 AI 做成“可交付的体验能力”
**结论:先用 AI 建立可测量的体验指标,再把 AI 变成可复用组件,最后才谈规模化个性化。**这套顺序能避免“功能越做越多,体验越来越乱”。
第一步:选一个高频任务链,定义可量化指标
不要从“我们也要一个大模型助手”开始。先挑一个高频任务链,例如通勤:上车—导航—音乐—空调—消息。然后定义指标:
- 完成任务的点击/口令步数
- 误触率与回退次数
- 首次成功率(语音一次成功)
- 打扰率(不合时宜的弹窗/播报)
这些指标就像游戏里的“留存、关卡完成率、死亡点热力图”,是体验迭代的方向盘。
第二步:把 AI 做成组件,而不是散落在各个功能里
建议用“能力中台”的思路做三类组件:
Intent Engine:统一意图识别(语音/触控/快捷键)Policy Engine:场景策略与安全约束(驾驶中/停车中)Feedback Kit:统一反馈模板(提示、动效、语音语气)
这样做的好处是:体验一致性可控,团队协作成本下降,供应商也更容易对齐。
第三步:再谈个性化,并把“可退出”写进产品
个性化要有开关、有解释、有撤销。我的经验是:**用户愿意被理解,但不愿意被“偷偷改变”。**把“为什么推荐这条路线/为什么自动切换到某模式”讲清楚,信任才会累积。
结尾:AI 的价值不在炫技,而在把体验做得更像“人”
CreateAI 从自动驾驶转到 AAA 游戏,表面是赛道变化,内核却是同一件事:用 AI 与软件工程把复杂体验做得可交付、可迭代、可规模化。他们选择自建动捕棚、强调动作与一致性,也是在用“笨功夫”守住体验底线。
对汽车软件与用户体验团队来说,最值得借鉴的不是“也去做 AIGC”,而是建立一套可控的 AI 体验管线:从数据与任务链出发,用规则与策略兜底,让模型成为生产力组件,而不是不可预测的黑箱。
下一篇「人工智能在游戏与数字娱乐」系列,我想更具体地拆解:**智能 NPC 的“可控记忆”与“统一语气”怎么做,为什么这套方法同样适用于车载语音与多模态助手?**如果你正在做相关产品,欢迎把你的场景(车队/车型/座舱OS/目标指标)发我,我可以按你的约束给一套更细的落地清单。