类脑大模型“瞬悉1.0”与国产GPU打通算力平台,不只推动脑机接口,也给智慧工地带来三点启发:算力效率、国产可控和人机共建。

从20瓦人脑到30万瓦GPU:算力差距提醒了谁?
人脑只用大约 20 瓦功耗,就能驱动上千亿神经元协同工作;而训练一个 1750 亿参数的大模型(类似 GPT-3),需要上千张 GPU、约 30 万瓦功率。两个数字一对比,任何做工程的人都会有同一个直觉:这种“能耗效率”,差得太远了。
对脑机接口团队来说,这是要命的现实——植入式设备不可能背个“数据中心”在脑袋上;对建筑企业来说,同样扎心——智慧工地上的摄像头、塔吊传感器、BIM 模型、进度仿真,全都在抢算力和带宽,服务器和云资源的成本一路走高。
最近,天桥脑科学研究院发布国内首款类脑脉冲大模型 “瞬悉1.0”,并与国产 GPU 企业 沐曦科技 打通算力平台,在国产 GPU 上完成大模型训练和推理。这件事表面上是脑科学和 AI 的新闻,但背后折射出来的,其实是所有算力密集行业——包括 建筑业与智慧工地——都绕不开的三件事:
- 算力从“堆规模”走向“讲效率”是大势所趋;
- 国产算力体系如果打通,行业应用才真正有安全感;
- AI 架构正在往“像大脑一样省电、泛化更强”的方向走,这会改变智慧工地怎么设计系统。
这篇文章,先讲清楚“瞬悉1.0 + 国产 GPU”到底厉害在哪儿,再把它对 智慧工地、BIM+AI 协同、工程数字化 的启发拆开讲透,最后给到建筑企业几条能落地的行动建议。
类脑大模型“瞬悉1.0”:算力瓶颈下的一条新路
要点先说在前面:瞬悉1.0 用主流 7B 大模型约 2% 的训练数据,做到相当于阿里千问 7B 约 90% 的性能,而且全程跑在国产 GPU 上。这背后,是“类脑计算”这条路开始走通了。
1. 它和普通大模型有什么不一样?
主流大模型大多基于 Transformer 架构,本质上是高并行、强算力驱动的模式:
- 靠参数规模堆效果:从几亿、几十亿一路涨到上千亿;
- 训练数据狂刷量:高质量语料+海量弱标注数据;
- 能耗和成本指数级提高。
“瞬悉1.0”走的是另一条路——类脑脉冲大模型:
- 模仿人脑“脉冲式”信息传递,而不是连续的浮点运算;
- 将 神经动力学、时空动态编码、树突结构 等脑科学机制,引入模型设计;
- 目标是同时解决三件事:低功耗、长序列建模、跨任务泛化。
用工程人的话说,就是:
不是在现有施工工法上继续加人、加机械,而是直接换一套更适合高层、长跨度结构的“全新工法”。
2. 真正关键的,是“能效”和“算力独立”
从公开信息看,瞬悉1.0 的几个工程向指标,值得建筑行业的人抄到“智慧工地规划方案”里:
-
2% 数据 ≈ 90% 性能
- 在数据获取、标注成本越来越高的现实下,“少数据学得好”是刚需。
- 对智慧工地来说,这意味着:不必等到“全场景、全历程、全标签”的完美数据集,也能跑出有价值的 AI 模型。
-
完全跑在国产 GPU 上
- 模型训练+推理全部使用国产算力平台,和沐曦 GPU 做了深度适配。
- 对于有重大工程、涉密项目、国企甲方的建筑企业,这一点非常敏感:算力可控,才谈得上真正的数字化底座。
-
全栈式链条打通
- 从类脑基础模型 → 国产 GPU 算力平台 → 专用类脑芯片,一条线走到底。
- 放到建筑行业,就是从 BIM 基础模型 → 行业 AI 算法 → 现场终端边缘芯片,形成闭环,而不是一堆“孤岛系统”。
我个人的判断是:谁现在还在单纯比“模型参数有多大”,而不谈“每瓦性能”和“每元性能比”,基本可以判断——对工程现场的理解是断层的。
脑机接口临床落地:AI 如何支撑极端场景?
脑机接口是极端应用场景的典型代表:
- 植入体内,安全要求接近“零失误”;
- 完全无线,功耗必须压到极限;
- 实时交互,对延迟极其敏感;
- 算力环境受限,不能指望云端无限资源。
上海的脑虎科技,在复旦华山医院完成了国内首个“三全”全植入脑机接口临床试验:
- 全植入:电极、芯片、电池全部在体内,极大降低感染风险;
- 全无线:供能+通信都无线化,患者不被线缆“拴”住;
- 全功能:采集、处理、通信、能量管理形成闭环。
一名高位截瘫 8 年的患者,在训练后通过意念实现了:
- 控制光标移动;
- 浏览网页、精准点击;
- 播放视频等交互行为;
解码速率达到 5.2 BPS,接近国际顶尖水平。
这套系统,有两个设计细节,对做智慧工地系统架构的读者很有参考价值:
-
高发热模块(电池)不放在大脑附近,而是移到胸前皮下
类似我们在工地机房做“冷热通道隔离”:把热源远离核心区域,降低风险。 -
用成熟的 DBS(脑深部电刺激)临床路径,避免重新踩坑
对应到建筑行业,就是:用成熟的工程总承包和监理体系,承载新的 AI、物联网技术,而不是另起炉灶搞一套只懂技术、不懂工程的管理体系。
更有意思的是,临床专家毛颖提到一个趋势:
临床问题正在反向牵引科研和产业,医生穿着白大褂就能和工程师、算法科学家面对面交流,把真实需求直接变成技术改进。
这和做智慧工地时“技术部门关起门来写方案”,最后现场人员用不起来,形成鲜明对比。脑机接口行业已经用脚告诉我们:没有一线场景的反向牵引,再强的 AI 也只是 PPT 上的能力。
对智慧工地的启发一:别只盯着“云上大模型”,要算清“每瓦价值”
从“瞬悉1.0”和脑机接口这两件事里,放在建筑业最直接的一点,就是:智慧工地需要的是“算得起、用得上、跑得稳”的 AI,而不是简单追求模型有多大、云上算力多豪华。
1. 工地上的算力,其实更接近脑机接口
对比几个典型差异:
- 环境受限:室外、高粉尘、高湿度,边缘设备散热和供电都不稳定;
- 网络不稳定:山区、高层钢结构、隧道等场景,5G/专网都可能不稳定;
- 实时性强:塔吊防碰撞、深基坑监测、安全帽识别,不能“延迟 3 秒再说”;
这和脑机接口“植入式、无线、极端安全要求”的环境更像,而不是典型的互联网云端场景。
所以,智慧工地的 AI 架构,应该更偏向:
- 边缘+云协同,把时延敏感的识别、简单决策放在工地本地算力上;
- 轻量化模型,针对安全帽识别、人员轨迹分析、塔吊路径预测等任务,采用参数量更小、推理更快的模型;
- 算力预算视角,不是“有多少视频就全都上云跑分析”,而是:每路视频、每个任务对应多少功耗、多少费用,产出能否覆盖投入。
类脑模型的一大价值,就是在这类环境里提供一种新选择:
同样的任务,在相同或更低算力、能耗下,做到更长时间序列、更强场景泛化。
2. 建筑企业需要学会“从 watts 角度做方案”
我个人比较推崇的一种做法是:在智慧工地方案评审时,强制要求技术供应商给出三组数据:
- 每路视频分析的平均功耗(瓦);
- 每台边缘设备的峰值功耗和连续运行小时数;
- 单位功耗产生的“有效事件数”(例如有效安全预警次数)。
然后,用类似脑机接口那种思路审视:
- 能否在不增加整体功耗的前提下,用更智能的架构实现更多功能?
- 是否可以通过选用更适合的模型(甚至未来的类脑模型),在“20 瓦级别”的工地边缘节点上,完成过去需要“机房级”算力才能做的事?
当你开始用“每瓦价值”去比较方案,而不是只看“能不能识别、安全不安全”,很多产品优劣会瞬间分明。
启发二:国产 GPU + 类脑模型 = 建筑业的“算力安全感”
“瞬悉1.0”最大的工程意义之一,是把类脑大模型 完整跑在国产 GPU 平台上,和沐曦一起打通了适配和优化链路。
这对涉及重大项目的建筑企业,有几点直接影响:
1. 从“可用”到“敢用”的跨越
不少总包、设计院现在其实已经在部分项目上尝试:
- 用大模型做 BIM 模型检查(碰撞检测说明自动生成、图纸审查提示等);
- 用 AI 识别做 安全帽、反光衣、烟火监测;
- 用算法做 机械设备运行异常预警。
真实顾虑往往有两个:
- 数据出境和算力依赖:如果底层 GPU 和大模型都严重依赖海外生态,一遇到政策风险,项目就会很尴尬;
- 成本不可控:公有云上的算力价格、带宽费用,一旦规模化,很容易从“试点很香”变成“全面推广吃不消”。
国产 GPU + 国产基础模型的组合,解决的是“心里有没有底”的问题:
- 关键项目可以在 本地机房或私有云 部署算力集群;
- 避免过度依赖单一海外技术栈,缩短上下游协同链路;
- 为后续定制 行业类脑模型(比如针对施工进度、质量、安全的多模态模型)留下空间。
2. 建筑业也需要自己的“全栈式研究链条”
脑科学这边已经开始跑通:
类脑基础模型 → 国产 GPU → 类脑专用芯片 → 脑机接口终端
建筑行业如果照着这条路想,就会发现自己的短板:
- 有大量碎片化的智慧工地系统,但缺少统一的 建筑行业基础模型;
- 设备层大量依赖进口芯片和通用 AI 芯片,对 现场工况和行业算子 支持不足;
- 算法团队和总包、施工单位之间,经常处在“各讲各的语言”的状态。
理想状态下,建筑业可以构建类似链条:
建筑行业基础大模型(BIM+进度+成本+安全多模态)
→ 国产 AI / 类脑 GPU 算力平台
→ 适配工地环境的专用边缘芯片和终端
→ 在塔吊、施工电梯、临建用电、安全通道等场景中规模化部署。
这不是一年内能做到的,但现在不开始规划,三五年后会和“有全栈链条”的企业拉开明显差距。
启发三:从“脑机共生”到“人机共建”,智慧工地该怎么设计?
在“从脑机接口到脑机共生”的论坛上,专家们提到一个非常有意思的视角:
AI 与脑机接口不是单向“工具关系”,而是相互塑造:AI 提升脑信号解读能力,大脑机制又反过来推动 AI 往低功耗、高效率发展。
对建筑行业,我更愿意把它类比成:“人机共建”。
1. 不是用 AI 替代工长,而是重构协作方式
在真实工地上,最懂施工逻辑的是工长、工区长和老工人;最懂数据和算法的是技术团队。现在的问题是,两边说话经常“对不上频道”。
脑机接口行业给了一个很直接的做法:
- 医生穿着白大褂,直接和算法工程师对需求;
- 临床需求“反向牵引”算法设计。
搬到工地,就是:
- 让工长、施工员走进数据中心评审会,而不是只看最终大屏效果;
- 在 AI 系统需求阶段,就把“工序安排、班组习惯、工期节点压力”写进算法目标,而不只是“识别准不准”。
当你把“人机共建”作为设计起点,智慧工地的很多功能优先级会调整:
- 优先做 工人真正用得上的功能(比如考勤、工资透明、进度可视化);
- 把“高大上的三维漫游大屏”排在后面;
- 用 AI 帮现场减压,而不是增加新的填报负担。
2. 给未来的类脑模型预留接口
我很确定的一点是:
未来 3~5 年内,类脑模型会在 低功耗多模态感知、复杂时序预测、跨任务泛化 这些方向,逐步在工业现场落地。
对今天规划智慧工地平台的人,有两条非常现实的建议:
-
系统架构上,尽量模块化、接口标准化
- 视频流、传感器流、BIM 数据、施工日志,都通过统一的数据中台暴露出来;
- 日后更换算法引擎(包括引入类脑模型)时,只动“中间层”,不推翻整体系统。
-
避免把 AI 引擎和业务逻辑绑死在一起
- 比如安全帽识别、烟火识别、塔吊路径优化这些算法,最好是“可插拔”的服务;
- 将来有更高效的类脑推理引擎,可以平滑替换,而不用整套重来。
这跟脑机接口把电池移到胸前、系统做成可升级一样,核心逻辑是:别把自己锁死在今天的技术选择上。
给建筑企业的落地建议:从一个试点、三张表开始
对已经坚持看到这里的你,我的建议会尽量务实一些,不讲空话:
1. 选一个“算力敏感”的应用场景做试点
优先选这类场景:
- 视频路数多(上百路)、实时性要求高;
- 目前主要靠“人盯屏”的方式在做(例如安全监控中心);
- 现场机房空间、电力配额有限。
在这个场景里,与技术合作方提出明确要求:
- 必须给出 功耗、带宽、事件检出率 的可量化指标;
- 要求对比不同模型、不同部署架构(云 vs 边缘)的性价比;
- 明确写进合同:试点结束后要出书面对比报告。
2. 建三张表,把“算力效率”管起来
我建议项目部或信息化部门,建立三张非常朴素但有效的表:
- 算力资产表:列出所有服务器、边缘设备、GPU 型号、功耗、部署位置;
- 应用—算力映射表:每个 AI 功能对应占用的设备、算力比例、并发量;
- 算力—业务价值表:每个应用对应的关键业务价值指标(例如减少多少安全隐患、节省多少巡检人力、缩短多少工期)。
做完这三张表,你会非常清楚:
- 哪些功能在“烧算力却不怎么创造价值”;
- 哪些场景值得未来引入更高效的类脑模型或国产 GPU 集群;
- 哪些工地完全可以通过边缘小算力,把大部分能力“就地解决”。
3. 主动靠近国产算力和类脑技术生态
别等“政策要求上来”才想起要换技术栈,现在就可以做几件事:
- 在新建数据中心或机房规划中,预留国产 GPU 机架与网络条件;
- 在采购智慧工地平台或 AI 设备时,要求说明:是否支持国产 GPU、是否支持后续替换为更高效推理引擎;
- 关注国内类脑计算、国产 GPU 厂商在工业和建筑领域的合作机会,优先争取 联合试点 资格。
这些动作,看起来和日常工程业务有点远,但 2~3 年后,你会发现:谁现在提早铺了这条路,谁就能在智慧工地真正实现“标准化复制”,而不是一个项目一套方案。
结语:AI 不只连接大脑和机器,也在连接每一个工地细节
类脑大模型“瞬悉1.0”和脑机接口临床试验,看上去离工地很远,但逻辑是一致的:
- 都在用 更高效的 AI 结构,在受限算力和严苛安全要求下完成复杂任务;
- 都在通过 国产算力平台,构建可持续、可控的技术底座;
- 都在尝试 让一线场景反向牵引 AI 设计,而不是技术部门孤立闭门造车。
智慧工地如果能学到这一点:
不再迷信“大模型等于智慧”,而是从能效、泛化、国产可控和人机共建这四个维度重构系统设计,那 AI 在中国建筑行业的应用,会比很多人想象得更快、更稳。
接下来要思考的问题其实很简单:
你所在的企业,准备把下一个试点项目,建在什么样的“算力底座”和“人机协作模式”之上?