Sharge近1亿元融资押注AI眼镜“记忆引擎”。本文用它做案例,拆解AI记忆如何迁移到智能汽车座舱与机器人体验设计。

AI眼镜“记忆引擎”上车:从Sharge融资看智能体验的下一站
到 2025 年,智能硬件的竞争越来越像一场“体验工程学”比赛:不是谁把参数堆得更高,而是谁能把用户的一天安排得更顺。Sharge 在 2025-12-29 官宣完成近 1 亿元人民币(约 1429 万美元)A+ 轮融资,并把资金明确投向两件事——柔性个性化产线与计算-记忆一体的 AI 记忆集群。这信号很直接:AI 眼镜不是“把大模型塞进镜框里”这么简单,而是要把“记忆”做成产品的核心能力。
这件事跟汽车软件与用户体验其实高度同构。车机、智能座舱、服务机器人、人机协作系统,最终都在解决同一个问题:如何让系统理解你的上下文,并在合适的时机做合适的事。Sharge 的案例给了我们一个很好的观察窗口:当“可搜索的个人记忆”成为标配,智能汽车与机器人产业的体验架构也会被迫升级。
为什么一副AI眼镜要把“记忆”放在第一优先级?
答案很简单:交互入口越轻,越依赖后台的长期记忆与用户模型。眼镜这种设备不适合长时间触控,也很难像手机那样频繁打开 App。它更像“持续在线的感知器官”,天然需要系统把零碎的音视频、地点与事件串起来,才能输出有价值的结果。
Sharge 与 memories.ai 合作的多模态 AI 记忆引擎,核心思路是把实时音视频转成结构化、可检索的记忆,并生成自动日记、周报等功能。表面看是效率工具,底层其实是把“用户数据资产”沉淀成可复用的长期上下文。
这对智能汽车与机器人同样成立:
- 智能座舱需要记住你常去的地点、常听的内容、常用的空调设定,甚至是你讨厌的导航提示方式。
- 服务机器人需要记住家庭成员的偏好、过敏信息、作息节奏,才能真正做到“少打扰但很有用”。
- 工业协作机器人需要记住某条产线的异常模式、工人动作习惯与安全边界,才能把“协作”做得顺畅。
一句话:没有记忆的 AI,只能当一次性问答工具;有记忆的 AI,才能做体验系统。
从Sharge的融资用途,看“硬件+AI体验”怎么落地
直接结论:Sharge 这轮融资的用途,几乎就是“AI 硬件产品化”的三张考卷——产线、算力/记忆基础设施、出海。
1)柔性个性化产线:体验不是写在PPT里,是做在良率里
AI 眼镜要进入大众市场,舒适度、重量、热管理、续航与稳定性都会被无限放大。Sharge 提到要部署“柔性、个性化生产线”,背后意味着:
- 不同脸型、鼻托、镜腿材料与配重方案要可配置
- 光学模组与显示方案需要稳定装配一致性
- 电池、散热与主板堆叠对良率要求极高
这跟汽车的逻辑很像:软件体验再好,异响、卡顿、发热、续航焦虑都会毁掉口碑。很多公司在“功能列表”上赢了,却在“真实体验”上输了。
2)计算-记忆一体集群:把“个人数据”变成可用能力
Sharge 计划建设“计算–记忆集成服务器集群”,服务于“主动 AI 记忆”。这说明他们不满足于把数据丢给通用大模型做一次性生成,而是要在后台形成:
- 低延迟检索:你说“上周跟张总聊的预算”,系统能在秒级定位
- 多模态对齐:音频、视频、时间线、地点、人物关系能对上
- 权限与生命周期:哪些能保存、保存多久、如何加密、如何撤回
这一套能力,正是智能汽车软件与用户体验未来会绕不开的“底座”。只要座舱开始做“连续场景”(上下班通勤、临时改道、代驾、亲友用车),长期记忆与可控隐私就会成为差异化关键。
3)“蜻蜓光引擎”与轻量材料:把舒适度当作第一增长杠杆
Sharge 与光峰(Appotronics)合作的显示技术强调降低功耗、提升舒适与续航。对可穿戴设备来说,体验公式很残酷:
戴不住 = 用不起来;用不起来 = 任何 AI 功能都白搭。
同理到车机:如果座舱语音误唤醒、UI 动画掉帧、导航延迟,用户会立刻回到手机;如果机器人行动笨拙、噪音大、经常误判,人会直接把它“踢出家庭”。
这件事对智能汽车UX的启发:向“软件优先”学习,但别照抄
直接观点:特斯拉式的软件优先方法论值得学,但中国厂商更可能走“软硬一体、场景优先”的路线。
特斯拉的优势在于把车当作可迭代的软件平台,通过 OTA 快速试错,持续优化交互与功能闭环。但眼镜和机器人比车更受限于体积、功耗、散热与佩戴/行动舒适度,硬件天花板更低。
Sharge 的路线更像“中国式智能硬件”:
- 用供应链与制造能力把体验做稳(重量、续航、佩戴)
- 用 AI 记忆把“长期价值”做出来(自动总结、可检索回忆)
- 再用全球市场验证规模(出海)
对汽车软件团队而言,这里有三条可迁移的 UX 方法:
- 把“记忆”从功能变成产品架构:不是加一个“历史记录”,而是把用户偏好、事件、任务与权限作为系统的一等公民。
- 把能耗当作体验指标:车机也有“功耗”,体现在待机耗电、唤醒速度与热管理;能耗差会反向拖累交互。
- 把“可解释与可撤回”做进流程:记住什么、为什么记住、怎么删掉,要像刹车一样可靠。
回到“人工智能在机器人产业”:AI眼镜其实是“人体外挂传感器”
结论先讲:AI 眼镜是机器人产业的上游能力模块,尤其在感知与人机协作上价值很高。
在机器人落地里,最难的常常不是机械臂的精度,而是“理解人类意图”和“获取场景信息”。AI 眼镜天然具备第一视角的多模态数据:看到什么、听到什么、当时在做什么。
典型落地场景(我更看好这三类)
- 远程协作与维修:一线人员戴眼镜,机器人或后台专家看到同样的画面,结合 AI 记忆自动调出“上次处理这台设备的步骤与注意事项”。
- 服务机器人引导:在医院、机场等场所,工作人员戴眼镜标注重点信息,机器人学习路线与话术,形成“场景记忆库”。
- 工业安全与培训:眼镜记录新员工操作过程,AI 自动生成培训周报、错误高发点清单,协作机器人再用这些记忆调整节拍与安全策略。
你会发现,“AI 眼镜的记忆引擎”与“机器人策略模型”之间,只差一个把数据结构化、权限化、任务化的桥梁。
读者常问:做“AI记忆”最大的坑是什么?
我给一个很明确的答案:隐私与误记忆会决定产品生死。
具体来说,至少要守住三条底线:
- 默认最小化采集:能在端侧完成的就别上云;能不存就不存。
- 可见、可控、可删:用户必须随时知道系统记住了什么,并一键撤回。
- 记忆要分层:短期上下文(分钟/小时)、中期事件(天/周)、长期偏好(月/年)要分开管理,避免“混成一锅粥”。
对汽车座舱与服务机器人同理:你可以更聪明,但不能更冒犯。
下一步怎么做:给汽车软件与机器人团队的三条行动建议
想把“AI 记忆 + UX”做出效果,我建议按优先级做这三件事:
- 先做一个“可检索事件时间线”:把语音、地点、任务、联系人等做成结构化事件,支持自然语言检索。
- 再做“自动总结”而不是“自动生成”:周报、行程摘要、工单摘要这种“低风险高价值”的功能最适合起量。
- 最后做“主动建议”:当且仅当召回准确率与权限体系稳定,再让系统主动提醒与推荐,否则只会变成打扰。
记忆不是炫技,是一套“信任工程”。信任建立得越慢,越稳。
Sharge 计划一年出货超过 10 万台,这对 AI 眼镜是一个现实的规模门槛。结合 IDC 的数据:2025 年上半年全球智能眼镜出货同比增长 64.2%,中国占比 26.6%,2025 年中国全年预计约 291 万台。市场在增长,但赢家不会只靠流量,还是靠把体验打磨到“戴得住、用得久、离不开”。
更值得期待的是:当“可搜索的个人记忆”在眼镜里跑通,汽车软件与机器人产业会更快把它搬进座舱、搬进工厂、搬进家庭。到那时,真正的差异化不在模型有多大,而在你是否把用户的每一次交互,都当作下一次体验变好的素材。
你更看好“软件优先”的智能汽车路线,还是“软硬一体、记忆驱动”的本土智能硬件路线?