AI在线 AI在线

英伟达与港大携手推出新型视觉注意力机制,提升高分辨率生成速度超 84 倍!

近日,香港大学与英伟达共同研发了一种新的视觉注意力机制,名为广义空间传播网络(GSPN),该机制在高分辨率图像生成方面取得了显著的突破。 传统的自注意力机制虽然在自然语言处理和计算机视觉领域取得了不错的效果,但在处理高分辨率图像时却面临计算量巨大和空间结构损失的双重挑战。 传统的自注意力机制的计算复杂度为 O (N²),这使得处理长上下文时非常耗时,并且将二维图像转化为一维序列会导致空间关系的丢失。

近日,香港大学与英伟达共同研发了一种新的视觉注意力机制,名为广义空间传播网络(GSPN),该机制在高分辨率图像生成方面取得了显著的突破。

传统的自注意力机制虽然在自然语言处理和计算机视觉领域取得了不错的效果,但在处理高分辨率图像时却面临计算量巨大和空间结构损失的双重挑战。传统的自注意力机制的计算复杂度为 O (N²),这使得处理长上下文时非常耗时,并且将二维图像转化为一维序列会导致空间关系的丢失。

image.png

为了解决这些问题,GSPN 采用了创新的二维线性传播方法,并结合 “稳定性–上下文条件” 理论,将计算复杂度降低到√N 级别,同时保留了图像的空间连贯性。这种新的机制大幅提升了计算效率,并在多个视觉任务上刷新了性能纪录。

GSPN 的核心技术包括两大部分:二维线性传播和稳定性 - 上下文条件。通过逐行或逐列的线扫描,GSPN 能够实现对二维图像的高效处理。与传统的注意力机制相比,GSPN 不仅减少了参数量,还保持了信息的完整传播。此外,研究人员还提出了稳定性 - 上下文条件,确保在长距离传播时系统的稳定性与可靠性。

在实验中,GSPN 展现出了卓越的性能。在图像分类任务中,GSPN 在5.3GFLOPs 的计算量下,实现了82.2% 的 Top-1准确率,超越了多种现有模型。在图像生成方面,GSPN 在处理256×256的任务时,生成速度提升了1.5倍。尤其在文本到图像生成任务中,GSPN 能够在16K×8K 分辨率下进行快速生成,推理时间加速超过84倍,展示了其在实际应用中的巨大潜力。

综上所述,GSPN 通过独特的设计理念和结构,使得视觉注意力机制在保持空间连贯性的同时,实现了计算效率的显著提升,为未来的多模态模型和实时视觉应用开辟了新的可能。

项目主页: https://whj363636.github.io/GSPN/

代码:https://github.com/NVlabs/GSPN

划重点:

🌟 GSPN 通过创新的二维线性传播机制,将高分辨率生成速度提升超过84倍。

💡 该机制解决了传统自注意力在高分辨率图像处理中的计算复杂度和空间结构损失问题。

🚀 GSPN 在多个视觉任务中刷新了性能纪录,为未来的应用提供了新方向。

相关资讯

构建人形机器人需要的三种电脑,英伟达都提供

在未来的 5 到 10 年里,我们即将见证 AI 从虚拟世界走向现实。
1/18/2025 9:07:00 PM
李泽南

英伟达推出 NIM AI 护栏服务,防止模型遭用户“越狱”

英伟达宣布推出一项名为“NIM”的 AI 护栏服务,该服务现已以英伟达 NeMo 护栏(NeMo Guardrails)套件的形式提供,可以让开发人员为大语言模型(LLM)添加一系列护栏规则,旨在解决用户通过提示词“越狱”大模型。防止 AI 生成不符合预期的内容。
1/18/2025 10:39:35 PM
漾仔

英伟达RTX 5090评测解禁,天赋都点在了 AI 上

久等了。 本周三,各路媒体对英伟达 GeForce RTX 5090 的评测宣告解禁。 基于最新 Blackwell 架构,新一代旗舰显卡无疑将成为未来几年你能买到的最好的显卡。
1/25/2025 8:13:00 PM
机器之心
  • 1