Vote
芝浦工大创新Vote-based框架,大幅提升手持物体姿态估计精度
在增强现实(AR)等应用中,手持物体的姿态估计是一项至关重要但颇具挑战性的任务。 近期,日本芝浦工业大学的研究团队提出了一种基于 Vote 机制的多模态融合框架,显著提高了这一领域的准确性,令人瞩目地提升了13.9% 的姿态估计精度。 这一新方法的核心在于有效整合来自 RGB(颜色)和深度图像的数据,特别是在手遮挡物体的情况下。
5/6/2025 12:00:51 PM
AI在线
- 1
资讯热榜
标签云
人工智能
OpenAI
AI
AIGC
ChatGPT
DeepSeek
AI绘画
模型
数据
机器人
谷歌
大模型
Midjourney
智能
用户
开源
学习
微软
GPT
Meta
图像
AI创作
技术
Gemini
论文
马斯克
Stable Diffusion
算法
芯片
蛋白质
生成式
代码
英伟达
腾讯
神经网络
研究
Anthropic
计算
3D
Sora
AI设计
开发者
机器学习
AI for Science
GPU
AI视频
苹果
场景
华为
人形机器人
百度
预测
伟达
Transformer
深度学习
Claude
搜索
xAI
大语言模型
字节跳动
模态
驾驶
具身智能
神器推荐
文本
训练
LLaMA
Copilot
视觉
算力
安全
应用
视频生成
干货合集
智能体
大型语言模型
亚马逊
科技
AGI
API