最近,AI教母李飞飞发帖宣布“可以在任意设备上流式传输超过1亿个高斯泼溅”。
瞬间引爆了技术圈对3DGS(3D Gaussian Splatting)的新一轮关注。
大家突然开始意识到,大规模3D高斯模型,开始可以在移动端运行了。
也正是因为这个,让大家联想到2005年,那一年MP4格式的出现,视频第一次可以被轻松压缩、分享和播放。
随之而来的是,视频从“专业内容”变成“日常语言”,进而催生了整个内容生态的爆发。
这让人不禁期待,是否3D内容也即将迎来属于它的“MP4时刻”?
但实际上,在真正熟悉3D高斯泼溅技术的圈子里,“大规模3D高斯模型在移动端打开” 的技术早已不是什么新鲜事。
两年前就有一家深圳创业公司,做出来并推出完整产品,甚至开源至GitHub。
但为什么,3DGS模型至今还未能像视频一样,成为内容创作者的主要创作手段和介质?
3D内容的爆发,究竟还缺乏哪些“关键要素”?
这,才是今天3D内容的“真问题”。
3DGS最难回答的问题,不是技术问题
其实3D世界的构建,一直都存在两条不同路径:
一条是建模/AI生成,即创造不存在的世界,服务于游戏与创意表达;
另一条是现实捕捉(Reality Capture),即记录真实世界,服务于空间记录、测量与仿真。
前面提到的李飞飞的路径更偏向于前者,结合自然语言模型和三维空间生成,是现在我们熟悉的AI生图/AI生视频的升维版本。
虽然也支持照片生模型,但效果对比专业的Reality Capture路径,其生成的模型在精度/结构和完整性上有较大差距,就不归为一类而谈了。
Reality Capture往往使用摄影重建或激光+视觉结合的方式,完整而真实地还原现实世界。
“大规模3DGS模型在移动端渲染”的故事,两年前就在现实捕捉这一路径上发生过了。
其实第一个支持大规模3D高斯模型在多端(含移动端)渲染的产品是——
其域创新XGRIDS的LCC(Lixel CyberColor),全球首个可商用的大场景3D高斯产品。
是的,他们在2024年,就推出了这样一套由SLAM空间扫描硬件和3D高斯生成软件组成的现实捕捉方案。
这套方案,可以将真实世界还原成高精度的3D高斯泼溅模型,并且可以在移动端加载无限大的3D高斯模型,这是行业里第一次有人把这件事做成产品。
而在他们这条产品发布的视频底下,当时很多评论都在问:
“这个模型可以用来做什么”“除了好看能做什么”……
技术已经不再是瓶颈,但用户的困惑恰恰揭示了另一层阻力的存在。
所以真正的问题,从那时起就已经发生了转移:
不是能不能打开,而是能不能被真正使用。
三维模型不像视频,无需任何解释,我们就知道视频可以带来什么价值。
但在我们的交互介质大多还是二维屏幕的现状下,光是“打开”一个三维模型,似乎没有比看一段视频给用户带来的价值增量有显著区别。
甚至会有很多用户询问“其域发表的‘模型漫游’是不是一段拍摄视频”,甚至感叹“可能还不如一段实拍的4K视频清晰”。
如果只能“粗略地看”,3DGS只是一个看起来更牛的技术,但却不直接解决用户的痛点,很难真正改变用户的交互方式。
无独有偶,另一个做手机重建三维模型的产品Kiri engine的创始人Jack,也曾在一次线下分享中提到,3D技术的行业从业者最经常被询问的问题是——
用户到底能用3D技术来干什么?
Jack的回答是:“我们一般只能是去描绘一些有关Vision Pro的未来愿景,或去幻想一下未来10年的工作发展。”
连行业内部人士都只能用未来愿景来回答,这说明问题的根源并不在技术本身。
回答“3D高斯能用来做什么”,才是眼下最本质的问题。
而要真正回答这个问题,就必须先面对3DGS技术本身尚未解决的几道关卡。
过去几年,虽然3DGS技术的发展速度其实非常快:
从论文到开源,从PC到移动端,从实验室到产品化,技术路径已经基本跑通。
但行业始终没有爆发,原因也很现实:
太大,难以传输(动辄几十GB)
太重,难以加载(设备性能门槛极高)
太新,缺乏生态系统支持(与各类目标场景的原有工具链之间几乎不兼容)
从“能打开”,到“能应用”的跨越
最近在社媒上出现的一些新探索,证明这些问题正在被解决:
有用户前不久发布了他使用3D高斯技术复刻其所在城市的道路,并使用Vibe coding做了一个赛车游戏,而这一切仅花费了2天时间。
三维博主扎克力,用3D高斯复刻了整个云南国家级保护村落,并使用UE做成移动端可玩的游戏体验。
以上这些是3DGS开始进入个人创作工作流的信号,更大的变化发生在专业场景里。
大热的美剧《Fire Country》(烈焰国度)的幕后,揭露了他们使用3D高斯泼溅技术扫描了一条街道,并在摄影棚中使用3D高斯模型在屏幕上完成了虚拟拍摄,完成了本不可能进行的“实景拍摄任务”。
包括山东文旅在内,他们也使用了3D高斯泼溅技术完成了济南著名景点趵突泉的数字孪生,让游客未来可以线上“云游”趵突泉。
就在不久前的GTC(英伟达GPU技术大会)上,其域创新也发布了新动作。
他们通过3D高斯泼溅模型,成功为英伟达和迪士尼机器人完成了具身智能大脑的模拟仿真训练。
数字孪生企业图扑,也放出了使用3D高斯泼溅模型为底图搭建的工厂数字孪生系统,过去这种底图通常是建模师照着现场CAD图纸和照片手工“搓出来”的。
这些零散但快速涌现的案例,其实指向了同一个变化方向——
3D高斯泼溅,正在从“展示介质”,变成“生产力工具”。
这种转变背后,是因为行业开始意识到:比起“能在手机上跑”,更重要的是有一套能让3D数据真正进入工作流的基础设施。
在深挖这些硬核应用背后的支撑技术时,我们发现了一个有趣的现象:
虽然场景各异,但它们在底层技术选型上,不约而同地指向了其域创新的3D高斯方案。
LCC做的,是3D世界的“MP4底层协议”
其域创新的创始人兼CEO赵开勇博士,是北京理工大学空天学院2001级飞行器设计与工程专业出身。
这个专业训练的,是在极端精度要求下对三维空间的测量、建模与系统集成——
某种程度上,他后来选择做3D空间数据基础设施这件事,并非偶然。
其域创新的LCC方案,以及最新升级的LCC2,本质上就是建立了一整套围绕3DGS的数据基础设施。
如果用一句话总结,它做了三件关键的事:
让3D高斯变成“可流通的数据”
LCC从一开始,就是针对超大规模场景而设计。
1、LOD渲染
LCC支持城市级、园区级的3D高斯数据组织与流式LOD加载。这是让3DGS可以在移动端跑起来的根本,LCC2提升为双轨LOD,让移动端可以秒级打开一个数亿高斯点的数据。
2、极致压缩
新版本LCC2更是将模型数据压缩做到了极致——
仅为传统PLY格式的8%大小,这不仅提升了加载速度,对于使用者来说也大大节省流量、降低成本。
3、解耦编解码格式
LCC2将解码与存储分离,独立模块管理,在不同的场景应用中,可以接入最合适的编解码格式,大大便于数据流通。
让3D高斯变成“可用的工程资产”
在LCC解决方案中,其域提供的独特优势是结合其空间扫描硬件的,提供结构化数据的能力——
不仅有“看起来真实”的视觉信息,还有空间结构、尺度、坐标体系等工程属性。
这件事的意义在于:3DGS从“视觉内容”,变成了“可以进入生产系统的数据”。
它可以被用于以下领域:
游戏与沉浸式交互
仿真与训练
数字孪生系统底图
虚拟拍摄与实时渲染
而不是仅仅用于“被观看”。
让3D高斯进入“应用生态”
LCC不是孤立存在的格式,它从设计之初就考虑了与各类引擎、工具链的对接。
这也是LCC作为一个3DGS格式,可以开启广泛应用的关键。
从发布至今,其域逐步为LCC生态搭建了UE、Unity的plugin(接口),让LCC数据可以无感进入游戏/影视等行业的应用工具链。
其域与英伟达Issac Sim的合作,也完整打通了机器人仿真训练的工作流,甚至是跟英伟达联合的具身智能训练系统。
在其域目前公开展示的应用生态中,全球几乎所有3D高斯应用生态的头部企业都接入了LCC,成为其域生态的一部分。
LCC在做一件事:把3DGS嵌入已有生产体系,而不是成为一个孤岛工具,3D高斯开始进入真实工作流。
“MP4时刻”,还差最后一步
李飞飞这次带来的,是一个非常重要的信号:
3DGS在“生成与分发”层面的能力,正在快速逼近临界点。
但历史已经证明——技术从“可行”走向“爆发”,中间一定还需要一个关键层:
标准 + 工具链 + 应用闭环。
视频如此,3D也不会例外。
其域创新在过去两年里押注的,正是这一层“看不见但决定一切”的基础能力。
所以回到那句核心判断:
不是让3DGS能在移动端打开,而是让它真正可用。
当3D内容可以像视频一样被编辑、分发、嵌入工作流、参与生产时,那一刻,才是属于3D世界真正的“MP4时刻”。
而现在,我们或许才刚刚走到它的前夜。
版权所有,未经授权不得以任何形式转载及使用,违者必究。