Sharge 融资加速 AI 眼镜量产,“记忆引擎”把音视频变成可检索的个人数据。本文拆解其 UX 逻辑,并给出对车载软件与机器人落地的启示清单。

AI眼镜“记忆引擎”走红:用户体验的新入口与汽车软件启示
一条数据先摆在桌面上:IDC 提到,2025 年上半年全球智能眼镜出货量同比增长 64.2%,而中国占到 26.6%;2025 年中国全年出货预计约 291 万台。这不是“概念热”,而是供应链、产品形态与用户需求一起拱出来的增长。
更有意思的是,智能眼镜的竞争点正在从“能显示、能拍摄、能听歌”转向一个更细的方向:能不能把你的生活变成可用的、可检索的个人数据。Sharge 在 2025-12-29 宣布完成近 1 亿元人民币(约 1429 万美元)A+ 轮融资,并计划加速 AI 眼镜量产,首年目标出货 10 万台以上。它把卖点押在“AI 记忆引擎”上:把实时音视频转成结构化记忆,支持自动日记、周报。
我更关心的不是这家公司能卖多少台,而是它释放的信号:AI 正在成为“用户体验的组织方式”。而这件事,对“AI 在汽车软件与用户体验中的不同应用方式”也非常有启发——车机、座舱、甚至服务机器人,最终都绕不过“记忆、上下文与个性化”的问题。
智能眼镜的下一战:从“功能堆叠”到“主动记忆”
结论先说:AI 眼镜要真正走进日常,关键不是再多一个应用,而是更少的操作、更强的上下文。Sharge 这次的叙事核心,是与 memories.ai 合作的多模态 AI 记忆引擎:将实时音视频转成可搜索的结构化内容,进而生成日记、周报。
“记忆引擎”为什么比“语音助手”更像刚需
很多人把 AI 穿戴设备等同于“把大模型塞进眼镜”。但真实体验往往是:
- 你要先唤醒、再提问、再确认,它才开始工作
- 你说的每句话都像“临时指令”,缺少连续上下文
- 用完即走,难以沉淀为长期价值
而记忆引擎的价值在于复利:它把“当下发生的事情”变成“未来可调用的线索”。比如:
- 开会时你没空记笔记,事后能按“客户名/项目/时间”检索要点
- 出差一路拍了很多片段,系统自动整理为行程日志和花费线索
- 你想复盘一周,系统直接生成“周报”,并标出高频话题与待办
一句话概括:把生活变成可查询的数据库,这比单次问答更能建立黏性。
“主动”带来的代价:隐私、误记与错配
主动记录也会把问题放大。
- 隐私边界:眼镜采集音视频的“外溢性”更强,容易涉及他人;产品必须把“何时记录、谁可见、如何删除”做到极其清晰。
- 误记成本:结构化摘要如果偏差,会导致用户做出错误判断;因此“可追溯到原始证据”很关键。
- 错配体验:在不合适的时机弹出总结或提醒,会比没有更烦。
我见过不少团队在这里翻车:AI 以为自己在帮忙,用户却觉得被打扰。好的 AI 体验不是更聪明,而是更懂分寸。
舒适度与续航不是配角:它决定“佩戴频率”,也决定数据质量
结论很直接:你戴不住的设备,记忆再强也没用。Sharge 提到与光峰科技(Appotronics)合作的“Dragonfly Light Engine(蜻蜓光引擎)”显示技术,目标是降低功耗;同时通过材料与结构降低重量,强调全天候佩戴舒适。
为什么“更省电”会影响 AI 能力
很多人把续航当成硬件 KPI,但对 AI 眼镜而言,它会反向决定软件能力:
- 续航不够 → 采集不连续 → 记忆碎片化 → “周报/日记”质量下降
- 功耗太高 → 设备发热 → 用户不愿意戴 → 数据更少
- 续航焦虑 → 用户主动关闭采集 → 体验退化为普通眼镜
也就是说,舒适度与续航不是体验的底线,而是 AI 体验的上限。
这里对“机器人产业”也很典型
本篇属于“人工智能在机器人产业”系列,我想把话说透:服务机器人、人机协作机器人要落地,首先要被人愿意长期共处。噪声、发热、体积、反应延迟,都会影响“共处体验”。
智能眼镜的“佩戴频率”对应机器人行业的“在场时间”。只要在场时间不够,所谓学习、适配、个性化都很难成立。
从眼镜到汽车:同一套“AI 记忆 + 统一体验”的方法论
先给一个明确判断:智能眼镜是“个人上下文入口”,汽车是“移动场景入口”。两者正在用相似的方法争夺用户体验的主导权。
1)AI 记忆 = 座舱的“长时上下文”
座舱里最常见的抱怨是:
- 每次上车都要重新设置音乐、导航偏好
- 语音助手记不住“我刚刚说过什么”
- 多人用车时,偏好混在一起
如果把“记忆引擎”的理念搬到车里,方向会更清晰:
- 会话记忆:同一路线、同一联系人、同一需求形成连续上下文
- 驾驶情境记忆:雨天、夜间、拥堵时系统学习你的操作节奏
- 偏好记忆:空调、座椅、媒体、HUD 信息密度按人、按时间自动切换
更进一步,汽车还能把“车外”场景纳入记忆:上次在某城市停车的位置、充电桩偏好、通勤拥堵规律。这就是“统一体验”的关键。
2)个性化生产线 vs 个性化体验:本质是同一个问题
Sharge 说融资将用于部署柔性、个性化生产线。这句话看似偏制造,但我觉得它对应的是软件侧的能力:
- 制造侧的柔性:更快地适配不同配置/形态/供应链变化
- 体验侧的柔性:更快地适配不同用户/场景/偏好变化
在汽车软件里,这常常落到:多车型平台化、功能开关管理、A/B 测试、端云协同。硬件柔性与软件柔性最终会在“用户能不能无痛升级”上相遇。
3)别把“统一体验”理解成“一个界面走天下”
很多团队做跨终端生态,会陷入一个误区:UI 统一就是体验统一。现实是:
- 眼镜需要“少打扰、强提炼”
- 手机适合“深交互、精编辑”
- 车机强调“低认知负荷、强安全约束”
- 机器人要“可解释、可预期、可协作”
真正的统一体验是统一三件事:
- 身份与权限:谁在使用、谁可见、谁能删除
- 记忆与上下文:哪些信息跨设备延续,哪些应当隔离
- 交互原则:何时主动、何时沉默,何时必须确认
这套原则,比 UI 风格更重要。
落地清单:想做“AI 记忆型产品”,先把这 6 件事设计好
结论先放这:没有“可控的记忆”,就没有可持续的 AI 体验。不管你做 AI 眼镜、车载座舱,还是服务机器人,我建议产品团队按下面顺序做。
- 记录开关要“可见、可理解”:用硬件指示灯、快捷手势、强提示,别藏在三级菜单。
- 默认最小化采集:先保证核心价值链路,逐步增加采集范围,别一上来就“全记录”。
- 记忆必须可编辑:允许用户纠错、合并、删除,并能看到修改历史。
- 结构化优先于长文本:把“人、地、事、时间、标签、待办”提出来,检索体验会好很多。
- 原始证据可回放:摘要旁边能一键回到原始片段,降低误记风险。
- 分层计算策略:端侧做即时提取与敏感过滤,云侧做长时总结与跨设备同步;把成本和隐私都压住。
一句可以直接写进 PRD 的话:“AI 的主动性必须用可控性换回来。”
2026 年的看点:AI 穿戴会把“个人数据”带入新阶段
Sharge 这轮融资金额不算夸张,但方向非常典型:从硬件新品走向“记忆基础设施”,并配套端云服务器集群来支撑“主动 AI 记忆”。这类产品如果做成,会倒逼行业重新回答两个问题:
- 个人数据到底归谁?怎么带走?怎么销毁?
- 多设备、多场景的个性化体验,如何在隐私与便利之间取得稳定平衡?
对汽车软件团队来说,现在就值得动手做一个小实验:把座舱里最高频的 3 个“重复设置”场景做成可学习的“记忆”,并严格限制它的主动打扰频率。用户体验提升往往不靠大而全,而靠少而准。
你更期待 AI 眼镜先解决“自动周报”,还是期待车机先做到“真正懂你”的连续对话与情境记忆?