FlashAttention-4
FlashAttention-4震撼来袭,原生支持Blackwell GPU,英伟达的护城河更深了?
在正在举办的半导体行业会议 Hot Chips 2025 上,TogetherAI 首席科学家 Tri Dao 公布了 FlashAttention-4。 据介绍,在 Backwell 上,FlashAttention-4 的速度比英伟达 cuDNN 库中的注意力核实现快可达 22%! 在这个新版本的 FlashAttention 中,Tri Dao 团队实现了两项关键的算法改进。
8/26/2025 6:13:00 PM
机器之心
- 1
资讯热榜
告别抽卡!Vidu Q2多图参考生视频功能重磅上线
保姆级教程!教你用Coze工作流2分钟生成优质文章
最强OCR竟然不是DeepSeek、Paddle!HuggingFace新作:六大顶尖开源OCR模型横评!继DS后又杀出匹黑马!
切斯基:Airbnb 暂缓接入 ChatGPT,AI 客服已用上通义千问
OpenAI、Oracle 再加码 AI 基建:150亿美元 Lighthouse 园区启动建设
独立开源大佬的疯狂实验:Claude Code蛮力出奇迹!40 分钟跑通 DeepSeek-OCR,我一行代码都没写
大模型推理学习新范式!ExGRPO框架:从盲目刷题到聪明复盘
AI赋能,重塑零售:详解零售巨头塔吉特的业务转型策略
标签云
AI
人工智能
OpenAI
AIGC
模型
ChatGPT
DeepSeek
谷歌
AI绘画
机器人
数据
大模型
Midjourney
开源
Meta
智能
微软
用户
AI新词
GPT
学习
技术
智能体
马斯克
Gemini
图像
Anthropic
英伟达
AI创作
训练
LLM
论文
代码
算法
芯片
AI for Science
腾讯
Stable Diffusion
Agent
苹果
Claude
蛋白质
开发者
生成式
神经网络
xAI
机器学习
3D
人形机器人
研究
RAG
AI视频
生成
大语言模型
Sora
工具
百度
具身智能
GPU
华为
计算
字节跳动
AI设计
搜索
AGI
大型语言模型
视频生成
场景
深度学习
架构
DeepMind
编程
生成式AI
视觉
预测
Transformer
AI模型
伟达
特斯拉
Copilot