Lightning Attention-2
新一代注意力机制Lightning Attention-2:无限序列长度、恒定算力开销、更高建模精度
Lightning Attention-2 是一种新型的线性注意力机制,让长序列的训练和推理成本与 1K 序列长度的一致。大语言模型序列长度的限制,极大地制约了其在人工智能领域的应用,比如多轮对话、长文本理解、多模态数据的处理与生成等。造成这一限制的根本原因在于当前大语言模型均采用的 Transformer 架构有着相对于序列长度的二次计算复杂度。这意味着随着序列长度的增加,需要的计算资源成几何倍数提升。如何高效地处理长序列一直是大语言模型的挑战之一。之前的方法往往集中在如何让大语言模型在推理阶段适应更长的序列。比
1/18/2024 11:39:00 AM
机器之心
资讯热榜
标签云
AI
人工智能
OpenAI
AIGC
模型
ChatGPT
谷歌
DeepSeek
AI绘画
大模型
机器人
数据
AI新词
Midjourney
开源
Meta
微软
智能
用户
GPT
学习
智能体
技术
Gemini
马斯克
英伟达
Anthropic
图像
AI创作
训练
LLM
论文
代码
算法
苹果
AI for Science
腾讯
Agent
Claude
芯片
Stable Diffusion
具身智能
蛋白质
xAI
开发者
生成式
人形机器人
神经网络
机器学习
3D
AI视频
RAG
大语言模型
Sora
研究
百度
生成
GPU
字节跳动
工具
华为
AGI
计算
大型语言模型
AI设计
搜索
生成式AI
视频生成
亚马逊
DeepMind
AI模型
特斯拉
场景
深度学习
Transformer
架构
MCP
Copilot
编程
视觉