3D
Zero-shot重建物理高斯资产,清华&光轮视觉大模型让机器人理解物理属性|ICRA 2025
理解物体的物理属性,对机器人执行操作十分重要,但是应该如何实现呢? 光轮智能与清华AIR、同济大学等机构联合提出了一种基于3D高斯溅射的方法——PUGS(Zero-shot Physical Understandingwith Gaussian Splatting)无需训练、零样本,它就能够从多视角图像中重建物体,并对各种指定的物理属性进行密集重建。 该论文已被ICRA 2025接收。
2/24/2025 2:22:00 PM
量子位
魔发奇缘,3D发型生成新突破!TANGLED:可用任意样式和视点的图像生成 3D 发束
在数字时代,发型不仅是时尚的标志,更是个人文化身份的彰显。 但传统3D发型生成技术往往难以捕捉复杂发型的细腻之美。 为此,上海科技大学和华中科技大学推出了ANGLED技术,能从任意风格、视角的图像中,轻松生成逼真3D发型。
2/24/2025 10:40:00 AM
AIGC Studio
剧本自动生成3D动画!北航中大等提出新方法,破解多人交互难题 | ICLR 2025
设定一个3D场景,你便可以用文字编织你的剧情。 一句话,就能让两个人激烈争吵。 吵完之后,又温馨共舞起来~想怎么排就怎么排,就像影视拍摄或舞台剧的编排一样,只需在剧本中设定角色的行动、互动和环境要素,就能自动生成符合逻辑的3D角色动画,让你的剧情真正“动”起来。
2/21/2025 9:35:00 AM
量子位
英伟达黑科技登场!RTX神经纹理压缩,显存用量狂减96%
在显卡技术不断迭代的当下,NVIDIA再次凭借其前沿创新,吸引了全球科技爱好者的目光。 RTX神经纹理压缩(NTC)技术在beta测试演示中的表现,堪称惊艳。 它成功地将3D应用中的内存纹理占用大幅降低,最高降幅可达96%,为图形处理领域带来了全新的变革可能。
2/14/2025 9:30:00 AM
新智元
Diffusion-SS3D:用扩散去噪革新半监督3D检测,伪标签更准,mAP提升6%!
一眼概览SemCity 是一种 基于三平面扩散(Triplane Diffusion) 的 3D 语义场景生成模型,能够在 真实户外环境 中进行 场景生成、语义补全、场景扩展(Outpainting)和修补(Inpainting),并在 SemanticKITTI 数据集 上显著提升生成质量。 核心问题背景问题:当前 3D 扩散模型大多专注于 单个物体 或 室内合成场景,对于 真实户外场景 仍然缺乏研究。 此外,户外数据由于传感器局限性(空白区域较多),导致模型难以学习 完整的三维语义分布。
2/14/2025 9:02:19 AM
萍哥学AI
StochSync:可在任意空间中生成高质量360°全景图和3D网格纹理
本文经AIGC Studio公众号授权转载,转载请联系出处。 StochSync方法可以用于在任意空间中生成图像,尤其是360°全景图和3D网格纹理。 该方法利用了预训练的图像扩散模型,以实现zero-shot生成,消除了对新数据收集和单独训练生成模型的需求。
2/8/2025 9:23:08 AM
AIGC Studio
Chirpy3D:用于创意 3D 鸟类生成的连续部分潜在特征
Chirpy3D框架可以将细粒度的2D图像理解提升至3D生成的全新境界。 当前的3D生成方法往往只关注于重构简单的对象,缺乏细致的特征和创造性。 Chirpy3D通过结合多视角扩散模型和连续的部件潜在空间,能够生成全新且合理的3D鸟类模型。
2/5/2025 11:00:00 AM
AIGC Studio
单张照片生成3D头部模型!Adobe提出FaceLift,从单一人脸图像重建360度头部模型
本文经AIGC Studio公众号授权转载,转载请联系出处。 FaceLift是Adobe和加州大学默塞德分校推出的单图像到3D头部模型的转换技术,能从单一的人脸图像中重建出360度的头部模型。 FaceLift基于两阶段的流程实现:基于扩散的多视图生成模型从单张人脸图像生成一致的侧面和背面视图;生成的视图被输入到GS-LRM重建器中,产出详细的3D高斯表示。
1/27/2025 9:32:23 AM
量子位
MV-DUSt3R+: 只需2秒!Meta Reality Labs开源最新三维基座模型,多视图大场景重建
本文一作为唐正纲,目前为博士生,就读于伊利诺伊大学厄巴纳 - 香槟分校,本科毕业于北京大学。 通讯作者是严志程,Meta Reality Labs 高级科研研究员 (Senior Staff Research Scientist),主要研究方向包括三维基础模型,终端人工智能 (On-device AI) 和混合现实。 近期,Fei-Fei Li 教授的 World Labs 和 Google 的 Genie 2 展示了 AI 从单图生成 3D 世界的能力。
1/26/2025 2:13:28 PM
机器之心
模型压缩70%!精度更高!开源MoDec-GS:更紧凑、更精确的动态3DGS
本文经3D视觉之心公众号授权转载,转载请联系出处。 论文信息标题:MoDec-GS: Global-to-Local Motion Decomposition and Temporal Interval Adjustment for Compact Dynamic 3D Gaussian Splatting作者:Sangwoon Kwak, Joonsoo Kim, Jun Young Jeong, Won-Sik Cheong, Jihyong Oh, Munchurl Kim机构:ETRI, South Korea、KAIST, South Korea、Chung-Ang University, South Korea原文链接::. 导读3D Gaussian Splatting (3DGS)在场景表示和神经渲染方面取得了重大进展,并致力于使其适应动态场景。
1/22/2025 11:00:00 AM
3DCV
理想汽车提出3DRealCar:首个大规模3D真实汽车数据集!
本文经AIGC Studio公众号授权转载,转载请联系出处。 理想提出3DRealCar,这是第一个大规模 3D 实车数据集,包含 2500 辆在真实场景中拍摄的汽车。 3DRealCar的目标是可以成为促进汽车相关任务的宝贵资源。
1/16/2025 10:35:00 AM
AIGC Studio
单图秒变3D对象,还可交互实时编辑!Stability AI中科大校友新作
近日,Stability AI发布消息,公开3D重建新方法SPAR3D的设计原理、代码、模型权重等。 SPAR3D可在一秒内从单张图像生成3D物体的完整结构并且可以实时编辑。 文章亮点:新方法SPAR3D实现了实时编辑,在不到一秒内可从单图完成3D对象的结构生成。
1/16/2025 10:05:00 AM
新智元
大步迈向VLA!港中文GPT4Scene:从视频中理解3D场景~
写在前面&笔者的个人理解具身人工智能是指能够通过与物理环境交互来执行各种任务的智能系统。 它在工业检测、智能家居和智能城市中有着广泛的应用和发展前景。 3D 场景理解涉及多模态语言模型理解室内环境整体布局和物体之间空间关系的能力。
1/16/2025 9:40:00 AM
Zhangyang Qi
3D虚拟试穿来了,上大、腾讯等提出ClotheDreamer,数字人也能实现穿,脱衣自由!
今天,给大家介绍上大、腾讯等提出的3D服装合成新方法ClotheDreamer,它以其革命性的能力,从简单的文本提示直接生成高保真、可穿戴的3D服装资产,正在重塑电商与空间计算领域的未来。 数字人也能实现穿、脱衣自由了!相关链接论文阅读::(即将开源)项目地址: 3D 服装对于数字化身创建来说既是理想的也是具有挑战性的。 最近基于扩散的分数蒸馏采样 (SDS) 方法已经实现了新的可能性,但要么与人体错综复杂地耦合,要么难以重复使用。
1/14/2025 10:30:00 AM
AIGC Studio
3D数字人生成来了!南洋理工提出StructLDM:高质量可控3D生成并支持编辑
三维数字人生成和编辑在数字孪生、元宇宙、游戏、全息通讯等领域有广泛应用。 传统三维数字人制作往往费时耗力,近年来研究者提出基于三维生成对抗网络(3D GAN)从 2D 图像中学习三维数字人,极大提高了数字人制作效率。 这些方法往往在一维隐向量空间建模数字人,而一维隐向量无法表征人体的几何结构和语义信息,因此限制了其生成质量和编辑能力。
1/14/2025 9:24:46 AM
AIGC Studio
3D服装生成新SOTA!谷歌和CMU提出FabricDiffusion:可将织物纹理从单个图像迁移到3D服装
本文经AIGC Studio公众号授权转载,转载请联系出处。 3D服装生成新工作! 谷歌和CMU提出FabricDiffusion:一种将织物纹理从单个服装图像迁移到任意形状的 3D 服装的方法。
1/13/2025 10:00:00 AM
AIGC Studio
一秒内从单个图像生成3D对象,Stability AI推出3D生成新方法
2025 年来了,3D 生成也迎来了新突破。 刚刚,Stability AI 在 CES 上宣布为 3D 生成推出一种两阶段新方法 ——SPAR3D(Stable Point Aware 3D),旨在为游戏开发者、产品设计师和环境构建者开拓 3D 原型设计新方式。 无论是精致的艺术品,还是纹理复杂的日常用品,SPAR3D 都能提供精确的几何形状和完整的 360 度视图的详细预测,包括通常隐藏的区域(例如物体的背面):值得一提的是,SPAR3D 还引入了实时编辑功能,能在不到一秒的时间内从单个图像生成 3D 对象的完整结构。
1/10/2025 2:00:00 PM
机器之心
2025 年来了,3D 生成也迎来了新突破
2025 年来了,3D 生成也迎来了新突破。 刚刚,Stability AI 在 CES 上宣布为 3D 生成推出一种两阶段新方法 ——SPAR3D(Stable Point Aware 3D),旨在为游戏开发者、产品设计师和环境构建者开拓 3D 原型设计新方式。 无论是精致的艺术品,还是纹理复杂的日常用品,SPAR3D 都能提供精确的几何形状和完整的 360 度视图的详细预测,包括通常隐藏的区域(例如物体的背面):值得一提的是,SPAR3D 还引入了实时编辑功能,能在不到一秒的时间内从单个图像生成 3D 对象的完整结构。
1/10/2025 10:40:00 AM
机器之心
资讯热榜
标签云
人工智能
OpenAI
AIGC
AI
ChatGPT
AI绘画
DeepSeek
数据
模型
机器人
谷歌
大模型
Midjourney
智能
用户
开源
学习
GPT
微软
Meta
图像
AI创作
技术
论文
Stable Diffusion
马斯克
Gemini
算法
蛋白质
芯片
代码
生成式
英伟达
腾讯
神经网络
研究
计算
Anthropic
3D
Sora
AI for Science
AI设计
机器学习
开发者
GPU
AI视频
华为
场景
人形机器人
预测
百度
苹果
伟达
Transformer
深度学习
xAI
模态
字节跳动
Claude
大语言模型
搜索
驾驶
具身智能
神器推荐
文本
Copilot
LLaMA
算力
安全
视觉
视频生成
训练
干货合集
应用
大型语言模型
科技
亚马逊
智能体
DeepMind
特斯拉