AI眼镜融资背后:多模态记忆引擎如何重塑车载软件体验

人工智能在机器人产业By 3L3C

Sharge融资近1亿元押注AI眼镜,多模态记忆引擎把音视频变成可检索记忆。本文拆解其对车载软件与智能座舱UX的启发与落地清单。

AI眼镜智能座舱UX多模态AI端侧智能AI记忆OTA机器人生态
Share:

Featured image for AI眼镜融资背后:多模态记忆引擎如何重塑车载软件体验

AI眼镜融资背后:多模态记忆引擎如何重塑车载软件体验

2025-12-29,消费电子公司 Sharge 宣布完成近 1亿元人民币(约 1429 万美元)A+ 轮融资,并把火力集中在一件事上:把新一代 AI 眼镜做成规模化产品,目标是 一年出货 10 万台以上。很多人把它当作“又一款可穿戴新品”,但我更愿意把它看成一个更大的信号:AI 的竞争正在从“能不能回答”转向“能不能记住、能不能持续陪伴、能不能在不同设备之间无缝协同”。

这对汽车行业、尤其是车载软件与用户体验(UX)来说非常关键。智能座舱正在变成“移动机器人”的交互中枢:它要听得懂、看得懂、记得住,还要在合规边界内把体验做得足够贴心。Sharge 这次押注的“多模态记忆引擎”,本质上和智能车在做的“长期用户模型、持续学习与 OTA 迭代”是一条线上的事。

这一篇属于「人工智能在机器人产业」系列:当服务机器人、人机协作系统走向日常化,可穿戴设备与智能车会一起成为“人类的外部感知与记忆器官”。

资金、产线与出货目标:AI硬件正在走“汽车路线”

**结论先说:AI 眼镜的胜负不只在模型,而在“产线、功耗与迭代速度”。**Sharge 的融资用途很明确:搭建更灵活的个性化产线、建设“算存一体”的服务器集群(用于主动式 AI 记忆),并推进全球市场扩张。

这套打法听起来像不像你熟悉的智能车?

  • 柔性产线:不同脸型、不同镜片方案、不同显示模组与电池配置,最终都指向一个词——规模化定制。汽车行业早就验证过:平台化+模块化能显著压缩成本并加快迭代。
  • 基础设施先行:Sharge 提到的“计算-记忆融合服务器集群”,对应到车端就是“云端训练与车端部署”的 MLOps 体系。体验不是一次性交付,而是持续升级。
  • 出货目标的意义:一年 10 万台对眼镜品类不算“天文数字”,但它意味着产品必须跨过“实验室可用”到“日常可戴”的门槛:重量、发热、续航、稳定性、售后都要过线。

同时,IDC 数据显示:2025 年上半年全球智能眼镜出货同比增长 64.2%,其中中国占比 26.6%;中国 2025 年全年出货预计约 291 万台。这说明市场热度足够,但也意味着竞争会快速进入“拼体验、拼生态”的阶段。

多模态AI记忆引擎:把“当下”变成“可检索的过去”

**结论先说:多模态记忆引擎的价值在于“把音视频流变成结构化、可搜索、可复用的个人知识库”。**Sharge 与 memories.ai 合作,将实时音视频转成可检索的结构化记忆,并支持自动生成日记、周报等功能。

这类能力看似是“效率工具”,但它真正改变的是交互方式:从“你问我答”变成“我知道你经历过什么,所以我能主动帮你整理”。

记忆引擎如何工作(用人话讲)

把它拆开看,其实是三段式流水线:

  1. 采集:麦克风/相机获得连续信号(语音、画面、环境声音)。
  2. 理解与索引:ASR 转写、视觉识别、事件抽取、时间线归档,生成 人物-地点-事件-意图 等标签。
  3. 检索与生成:用户一句话触发检索,再由生成式模型组织成摘要、待办、报告。

关键点不在“生成得多漂亮”,而在索引质量可控性:错记、漏记、记混人名地点,体验会瞬间崩盘。

为什么这对智能座舱是“同一道题”

智能车的座舱正在遇到同样的需求:

  • 车机不应只“导航+音乐+语音助手”,而应能形成驾驶与生活的连续上下文
  • 用户真正想要的是:我昨天说的那家餐厅、上周讨论的出差安排、孩子的接送地点变化,车机能在合适的时刻提醒,并且不越界。

一句话很适合做引用:“未来的交互不靠按钮数量,靠系统对你生活脉络的理解深度。”

舒适度与功耗:决定“日常佩戴”的不是模型,而是工程

**结论先说:可穿戴设备的 UX 底线是“戴得住”,上限才是“聪明”。**Sharge 在硬件侧强调两点:显示方案降低功耗(与光峰合作的“Dragonfly Light Engine”),以及材料与结构减重,目标是全天候舒适佩戴。

这和汽车软件体验有一个共同规律:交互再聪明,也不能破坏基本体验

  • 对眼镜来说,底线是重量、鼻托压力、镜腿夹持、发热、续航。
  • 对汽车来说,底线是语音唤醒稳定性、车机流畅度、关键功能可达性、对驾驶的干扰控制。

我见过不少“功能很炫”的产品败在细节:续航撑不到通勤往返、镜框压得头疼、语音老是误唤醒。用户不会给第二次机会。

给汽车团队的直接启发:用“功耗预算”管AI体验

很多车载 AI 功能做不好,不是算法不行,而是缺少像硬件团队那样的“预算思维”。建议把体验拆成可量化的指标:

  • 唤醒与响应时延预算:如 300ms 内反馈、1.5s 内给出可执行方案。
  • 稳定性预算:高频场景(导航、通话、空调)容错优先级高于“花哨技能”。
  • 注意力预算:驾驶时减少长对话,更多用一句话确认与 HUD/声学反馈。

可穿戴的“全天候舒适”对应到座舱,就是“全天候不打扰”。

从AI眼镜到智能车:个性化体验的下一站是“跨设备记忆”

**结论先说:真正的个性化不在单设备,而在“跨设备一致的用户记忆与权限体系”。**AI 眼镜记录的是生活现场,智能车记录的是移动轨迹与驾驶偏好,手机记录的是通信与日程,家里的服务机器人记录的是家庭任务。把这些拼起来,才是完整的用户体验。

但这件事最难的不是技术,而是三道门槛:

1)隐私与合规:默认不开采集,默认可删除

多模态记忆天然涉及敏感信息。一个可用的产品必须做到:

  • 默认最小化采集:可控开关、场景提示、敏感区域屏蔽。
  • 端侧优先:能在本地完成的处理尽量本地完成,降低数据外流。
  • 可解释与可删除:用户能看到“你为什么推荐”,也能一键删除某段记忆。

这同样是车载 AI 的红线:座舱要聪明,但不能让用户觉得“被监视”。

2)记忆质量:少记错,比多记更重要

AI 记忆的体验很脆:一次“把同事当成客户”、一次“把地点记错”,就会让用户关闭功能。工程上需要:

  • 人物/地点的歧义消解(同名、近似发音)
  • 时间线冲突处理
  • 置信度提示与二次确认机制

3)生态协同:把“周报”变成“下一步动作”

自动日记、周报只是起点。更有价值的是把结构化记忆接入任务系统:

  • 自动生成待办并同步到日程
  • 会议纪要一键转成工单
  • 通勤途中由车机播报“今天最重要的三件事”

当服务机器人进入家庭,眼镜与车机还可以把任务交给机器人执行:比如到家后提醒扫地机器人清扫某区域、或让陪护机器人在老人服药时间主动提醒。

采购与产品负责人最该问的5个问题(实操版)

**结论先说:评估“带记忆的AI设备/车载系统”,别只看演示,要用问题把真实能力逼出来。**我建议从这 5 个问题入手:

  1. **记忆数据默认存哪里?**端侧/云端/混合?用户能否导出与删除?
  2. **多模态检索的准确率怎么测?**有没有按真实场景(嘈杂、弱光、多人对话)测试集?
  3. **误采集与误唤醒怎么处理?**是否有快速“静音/隐私模式”?
  4. **和车载系统/机器人系统怎么集成?**是否提供权限分级、账号体系与审计日志?
  5. **OTA 迭代的节奏与回滚机制?**升级失败怎么保障核心功能?

这些问题看似“挑刺”,但它们直接决定用户会不会长期用。

结尾:AI记忆正在成为新入口,车载UX要提前占位

Sharge 这次融资与产品路线传递了一个清晰信号:**AI 的价值正在从“回答问题”转向“管理你的时间、经历与任务”。**多模态记忆引擎把现实世界转成结构化资产,这会让 AI 眼镜不仅是硬件,更像一个随身的“感知型机器人”。

对智能车来说,这不是隔壁行业的热闹,而是同一条赛道的预演:谁能把“记忆、个性化与合规”三者同时做好,谁就能把座舱从功能集合变成用户的长期伙伴。你更看好哪一种路径:由手机做统一记忆中枢,还是由车端与可穿戴共同承担?