AI在线 AI在线

3D

阶跃星辰开源 3D 大模型 Step1X-3D

阶跃星辰正式发布并开源了3D大模型Step1X-3D。 这一模型的推出,标志着阶跃星辰在多模态方向上的最新成果,继图像、视频、语音、音乐等模态后,进一步拓展了AI技术的应用边界。 Step1X-3D模型总参数量达4.8B,其中几何模块1.3B,纹理模块3.5B。
5/14/2025 5:00:52 PM
AI在线

3D人脸黑科技!Pixel3DMM:单张RGB图像秒变3D人脸,姿势表情精准还原,几何精度碾压竞品15%!

慕尼黑工业大学和伦敦大学学院提出了一款经过微调的 DINO ViT模型 Pixel3DMM,用于逐像素表面法线和 UV 坐标预测。 从上到下,下图展示了 FFHQ 输入图像、估计的表面法线、根据预测的 UV 坐标估计的二维顶点,以及针对上述两个线索的 FLAME 拟合结果。 使用Pixel3DMM 进行野外追踪。
5/14/2025 9:23:55 AM

​苹果推出革命性 AI 模型 Matrix3D:轻松将 3 张照片转化为 3D 场景

苹果机器学习团队与南京大学和香港科技大学合作,推出了一款名为 Matrix3D 的先进 AI 模型。 该模型的主要功能是从少量的2D 照片中重建真实的物体和场景,为用户提供高质量的3D 输出。 用户只需提供三张照片,Matrix3D 便能自动生成详细的3D 重建效果。
5/14/2025 9:01:02 AM
AI在线

腾讯发布全新 AI 框架 PrimitiveAnything:颠覆 3D 形状生成方式!

在计算机视觉和图形学中,3D 形状的抽象是一个基础且关键的研究领域。 通过将复杂的3D 形状分解为简单的几何单位,研究者能够更好地理解人类视觉感知的机制。 然而,现有的3D 生成方法通常无法满足机器人操作或场景理解等任务对语义深度和可解释性的要求。
5/12/2025 10:01:16 AM
AI在线

CVPR 2025 Highlight | 清华提出一键式视频扩散模型VideoScene,从视频到 3D 的桥梁,一步到位!

清华大学的研究团队首次提出了一种一步式视频扩散技术 VideoScene,专注于 3D 场景视频生成。 它利用了 3D-aware leap flow distillation 策略,通过跳跃式跨越冗余降噪步骤,极大地加速了推理过程,同时结合动态降噪策略,实现了对 3D 先验信息的充分利用,从而在保证高质量的同时大幅提升生成效率。 实验证明VideoScene可弥合从视频到 3D 的差距。
5/12/2025 9:31:44 AM

南洋理工 & 牛津 & 新加坡理工提出Amodal3R,可从遮挡 2D 图像重建完整 3D 资产,3D生成也卷起来了!

Amodal3R 是一种条件式 3D 生成模型,能够从部分可见的 2D 物体图像中推测并重建完整的 3D 形态和外观,显著提升遮挡场景下的 3D 重建质量。 给定图像中 部分可见的物体,Amodal3R 重建具有合理几何形状和合理外观的语义上有意义的 3D 资产。 相关链接论文:::即将开放...模型:: 的示例结果。
5/7/2025 10:09:49 AM
AIGC Studio

细节直逼亚毫米级!港科广分层建模突破3D人体生成|CVPR 2025

从人体单图变身高保真3D模型,不知道伤害了多少程序猿头发的行业难题,竟然被港科广团队一招破解了! 团队最新提出的MultiGO创新方案,借助分层建模思路——将人体分解为不同精度层级,从基础体型到衣物褶皱逐级细化。 这有点像在搭乐高积木:先大模块构建整体轮廓,再用小零件补充细节,最后再处理材质纹理。
5/6/2025 8:50:00 AM

谷歌DeepMind Genie 2亮相《60 Minutes》,革新3D交互环境生成技术

CBS著名栏目《60Minutes》深入报道了谷歌DeepMind人工智能研究实验室的最新突破,重点聚焦其全新AI模型——Genie2。 据AIbase了解,Genie2能够从单一图像或简单文本描述生成高度逼真的3D交互式环境,为机器人训练、虚拟世界构建及通用人工智能(AGI)发展开辟了新路径。 社交平台上的热烈讨论凸显了其技术革新性,相关细节已通过DeepMind官网(deepmind.google)与Hugging Face公开。
4/30/2025 10:00:55 AM
AI在线

扩散模型还原被遮挡物体,几张稀疏照片也能"脑补"完整重建交互式3D场景|CVPR'25

你是否设想过,仅凭几张随手拍摄的照片,就能重建出一个完整、细节丰富且可自由交互的3D场景? 在传统方法中,这几乎是不可能完成的任务,稀少的拍摄视角往往导致模型无法还原被遮挡的区域,生成的场景要么残缺不全,要么细节模糊。 更令人困扰的是,传统的重建算法无法解耦场景中的独立物体,重建结果无法交互,严重限制了在具身智能、元宇宙和影视游戏等领域的应用前景。
4/24/2025 9:38:00 AM

从Minecraft到虚幻5,AI首次实现3D游戏零样本迁移,跨游戏直接上手

该研究成果由北京大学和加州大学洛杉矶分校共同完成。 第一作者蔡少斐为北京大学三年级博士生,通讯作者为北京大学助理教授梁一韬。 该工作基于 MineStudio 开源项目,一个全流程简化版 Minecraft AI Agent 开发包,相关代码均已在 GitHub 上开源。
4/23/2025 9:28:58 AM
机器之心

3D高斯泼溅算法大漏洞:数据投毒让GPU显存暴涨70GB,甚至服务器宕机

随着3D Gaussian Splatting(3DGS)成为新一代高效三维建模技术,它的自适应特性却悄然埋下了安全隐患。 在本篇 ICLR 2025 Spotlight 论文中,研究者们提出首个专门针对3DGS的攻击方法——Poison-Splat,通过对输入图像加入扰动,即可显著拖慢训练速度、暴涨显存占用,甚至导致系统宕机。 这一攻击不仅隐蔽、可迁移,还在现实平台中具备可行性,揭示了当前主流3D重建系统中一个未被重视的安全盲区。
4/23/2025 8:50:00 AM
量子位

直观即时绘制3D模型,可添加文本提示,VAST又开源了

3D生成明星玩家VAST,又又又又又开源了! Tripo Doodle(内部代号TripoSG Scribble) ,能够将简单的2D草图和文本提示(Text Prompt)实时转化为精细的3D模型。 它改进了传统3D建模学习曲线陡峭、耗时耗力的痛点,尤其是在初期“打形”阶段。
4/22/2025 9:26:00 AM
量子位

单图直出CAD工程文件!CVPR 2025新研究解决AI生成3D模型“不可编辑”痛点

单张图直接就能生成可编辑的CAD工程文件! 来自魔芯科技、NTU等的研究人员提出图生3D新框架,名为CADCrafter。 CADCrafter和过去得到网格(Mesh)或3D高斯泼溅(3DGS)的图生3D方法大不相同。
4/15/2025 8:57:00 AM
量子位

Llama 4重测竞技场排名大跳水,网友:社区很难再信任Meta了

Llama 4被曝在大模型竞技场作弊后,重新上架了非特供版模型。 但是你很可能没发现它。 因为排名一下子从第2掉到了第32,要往下翻好久才能看到。
4/13/2025 5:04:23 PM
量子位

孪生世界动态仿真新突破!北大发布RainyGS:降雨/洪涝/风速精准可控

神经辐射场(NeRF)及三维高斯泼溅(3D Gaussian Splatting,3DGS)虽能构建静态数字孪生,却无法模拟真实世界的动态,不仅限制了虚拟现实和混合现实的真实感,也是智能训练与Real2Sim2Real范式突破的关键瓶颈。 如何让数字孪生世界具备真实物理规律,实现可预测、可操控的动态环境,是自动驾驶、具身智能等空间智能应用亟待解决的核心挑战。 为此,北京大学陈宝权教授研究团队提出RainyGS技术(合作者为楚梦渝、陈文拯助理教授,博士生戴启宇、倪星宇和本科生沈千帆),探索了一条通向「孪生世界动态仿真」的新路径。
4/9/2025 1:25:34 PM
新智元

CVPR 2025 HighLight|打通视频到3D的最后一公里,清华团队推出一键式视频扩散模型VideoScene

论文有两位共同一作。 汪晗阳,清华大学计算机系本科四年级,研究方向为三维视觉、生成模型,已在CVPR、ECCV、NeurIPS等会议发表论文。 刘芳甫,清华大学电子工程系直博二年级,研究方向为生成模型 (3D AIGC和Video Generation等),已在CVPR、ECCV、NeurIPS、ICLR、KDD等计算机视觉与人工智能顶会发表过多篇论文。
4/9/2025 1:11:27 PM
机器之心

单张照片生成360°3D场景,支持灵活视角漫游|人大&北师大&字节

从单张图像生成灵活视角3D场景的技术来了,在考古保护、自主导航等直接获取3D数据成本高昂或不可行的领域具有重要应用价值。 这一任务本质上是高度不适定的:单一的2D图像无法提供足够的信息来消除完整3D结构的歧义,尤其是在极端视角(如180°旋转)下,先前被遮挡或缺失的内容可能会引入显著的不确定性。 生成模型,特别是扩散模型,为解决这一问题提供了一种潜在的技术路径。
3/31/2025 8:27:00 AM
量子位

纯RGB输入,解决户外场景SLAM!误差降低至9.8%,港科广开源 | ICRA 2025

在自主驾驶、机器人导航、AR/VR等前沿应用中,Simultaneous Localization and Mapping (SLAM) 是核心技术之一。 现有基于3D高斯分布(3DGS)的SLAM方法虽在室内场景表现出色,但使用仅RGB输入来处理无界的户外场景仍然面临挑战:准确的深度和尺度估计困难,这影响了姿态精度和3DGS初始化图像重叠有限且视角单一,缺乏有效的约束,导致训练难以收敛为了解决上述挑战,港科广团队提出全新解决方案OpenGS-SLAM,仅凭RGB图像实现高精度定位与逼真场景重建。 论文链接:::,该方法采用了一个点图回归网络来生成帧间一致的点图,储存了来自多个标准视角的3D结构,包含了视角关系、2D到3D的对应关系和场景几何信息,使得相机位姿估计更加稳健,有效缓解了预训练深度网络的误差问题。
3/27/2025 10:54:06 AM
新智元